登录
首页 >  科技周边 >  人工智能

谷歌推出RT-2 AI模型:将视觉和语言转化为机器人动作

来源:51CTO.COM

时间:2023-08-04 08:19:54 263浏览 收藏

今日不肯埋头,明日何以抬头!每日一句努力自己的话哈哈~哈喽,今天我将给大家带来一篇《谷歌推出RT-2 AI模型:将视觉和语言转化为机器人动作》,主要内容是讲解等等,感兴趣的朋友可以收藏或者有更好的建议在评论提出,我都会认真看的!大家一起进步,一起学习!

谷歌推出RT-2 AI模型:将视觉和语言转化为机器人动作

据外媒报道,谷歌于7月29日推出了一款名为Robotics Transformer2 (RT-2) 的人工智能学习模型,旨在提升其机器人的智能水平

据报道,RT-2是一种创新的视觉语言行动模型,可以使机器人更准确地识别视觉和语言模式,从而能够解释指令并推断出最适合请求的对象

据该公司在一篇论文中的表述,他们使用了谷歌自家的Bard等大型语言模型的研究成果,通过在网络和机器人数据上进行训练,并结合机器人数据,如关节运动,成功开发出了一种新模型。此新模型还具备识别除英语以外的其他语言的能力

多年来,研究人员一直努力提升机器人的推理能力,以解决其在现实环境中生存的问题。然而,在实际生活中,机器人需要更多的指导才能执行人类的简单任务,例如清理洒出的饮料。人类天生具备这种能力:捡起玻璃杯,用工具清除残羹剩饭,然后将其丢弃

之前,训练机器人需要耗费大量时间。研究人员需要逐个编写指令。然而,通过使用强大的RT-2和其他VLA模型,机器人能够利用更广泛的信息集来推测下一步该采取的行动

今天关于《谷歌推出RT-2 AI模型:将视觉和语言转化为机器人动作》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

声明:本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>