CMU把具身智能的机器人给越狱了
时间:2024-12-28 11:13:25 442浏览 收藏
你在学习科技周边相关的知识吗?本文《CMU把具身智能的机器人给越狱了》,主要介绍的内容就涉及到,如果你想提升自己的开发能力,就不要错过这篇文章,大家要知道编程理论基础和实战操作都是不可或缺的哦!
具身智能的可靠性堪忧,如同大型语言模型一样容易受到攻击。
许多研究表明,大型语言模型(LLM),例如ChatGPT,容易遭受越狱攻击。一些特殊的提示可以诱导LLM生成违反规则的内容,甚至是有害内容(例如炸弹制造说明)。这种攻击被称为“大模型越狱”。
然而,以往人们普遍认为,此类攻击仅限于文本生成。卡耐基梅隆大学(CMU)最新研究表明,攻击大模型控制的机器人也是可能的。
研究人员攻破了Unitree Go2机器狗。
如果具身智能也遭受越狱攻击,机器人可能会被诱导在现实世界中造成人身伤害。
AI机器人:科学与科幻的交汇
科幻作品中,人工智能和机器人的形象反复出现,例如《星球大战》中的R2-D2、《机器人总动员》中的WALL-E或《变形金刚》中的擎天柱。这些角色通常被描绘成人类的守护者或听话的助手,其AI被设定为人类友善的伙伴。
现实世界中,AI技术发展迅速,人类水平的AI或许在数年内就能实现,但人们对未来潜在风险的担忧也日益增加。我们周围的世界正悄然被机器人改变。
波士顿动力的机器狗Spot就是一个例子。其零售价约为7.5万美元,已被SpaceX、纽约警察局和雪佛龙等公司部署。Spot曾因开门、跳舞和在工地奔跑的视频而闻名,人们一度认为这是人工操作的结果。
然而,2023年,Spot与OpenAI的ChatGPT语言模型集成,可以通过语音命令进行控制,并能够高度自主地运行。
另一个例子是Figure公司的人形机器人Figure o1。它可以行走、说话、操作设备,并协助完成日常任务,已在汽车工厂、咖啡店和仓库中进行了测试。
除了人形机器人,端到端的AI还被应用于自动驾驶汽车、全自动厨房和机器人辅助手术等领域。人工智能机器人的快速发展引发了人们的思考:是什么推动了这一波创新?
大型语言模型:人工智能的下一个浪潮
几十年来,研究人员一直试图将机器学习技术应用于先进的机器人。从用于自动驾驶的计算机视觉模型,到强化学习算法,学术算法的应用一直比较迅速。
然而,大型语言模型(LLM)的出现改变了一切。先进的LLM,例如OpenAI的ChatGPT和谷歌的Gemini,在海量数据上进行训练,能够理解和生成高质量的文本。这些生成式AI(GenAI)提供了丰富的功能,例如个性化旅行建议、食谱生成和网站制作。
LLM控制的机器人可以通过用户提示直接控制。
LLM为机器人专家提供了一种强大的工具。传统上由液压、电机和操纵杆控制的机器人,现在可以通过语音或文本命令直接控制。机器人可以使用LLM将用户提示转换为可执行代码。
Eureka(生成机器人特定计划)和RT-2(将图像转换为机器人动作)等算法也推动了这一发展。
LLM控制的机器人已经进入消费者市场。例如,Unitree Go2可以通过智能手机应用程序(基于OpenAI的GPT-3.5)进行控制。然而,正如科幻小说所预示的那样,人工智能机器人也存在风险。
虽然消费级机器人的应用通常是无害的,但一些更强大的机器人,例如Throwflame公司的Thermonator(配备火焰喷射器),也通过类似的应用程序进行控制,这引发了安全担忧。
越狱攻击:大模型的安全挑战
大型语言模型是否会危及人类?
2023年,安全机器学习领域的研究人员发现了许多LLM的漏洞,其中许多与越狱攻击有关。
LLM通过模型对齐过程进行训练,以遵循人类的意图和价值观,避免生成有害内容。
大模型训练时考虑到了避免生成有害内容。
然而,这种对齐很容易受到越狱攻击。通过对输入提示进行微小的修改,可以欺骗LLM生成有害内容。
LLM可以被破解。图片来自《Universal and Transferable Adversarial Attacks on Aligned Language Models》。
越狱攻击几乎影响所有已上线的LLM,包括开源和专有模型。
攻破LLM控制的机器人
以往的越狱攻击主要针对LLM驱动的聊天机器人。然而,LLM控制的机器人也存在安全风险。
预印本论文《Jailbreaking LLM-Controlled Robots》表明,越狱LLM控制的机器人不仅可能,而且很容易实现。
机器人越狱漏洞分类
该研究将LLM控制机器人的漏洞分为三类:白盒、灰盒和黑盒威胁模型。
- 白盒: 攻击者完全访问机器人的LLM。
- 灰盒: 攻击者部分访问机器人的LLM。
- 黑盒: 攻击者无法访问机器人的LLM。
该研究主要关注黑盒攻击,因为这种攻击也适用于灰盒和白盒模型。
RoboPAIR:LLM对抗测试
研究人员开发了RoboPAIR,一种改进的越狱方法。RoboPAIR对PAIR进行了改进,使其更有效地攻击LLM控制的机器人。
RoboPAIR越狱攻击。RoboPAIR包含一个语法检查器,其目标是确定机器人的LLM编写的代码是否可执行。
RoboPAIR添加了语法检查器,以验证生成的代码是否可在机器人上执行,并使用了机器人特定的系统提示。
实验结果
研究人员对三台机器人进行了实验:NVIDIA Dolphins自动驾驶LLM(白盒)、Clearpath Jackal(灰盒)和Unitree Go2机器狗(黑盒)。
结果表明,这三台机器人都很容易被越狱攻击。RoboPAIR实现了接近100%的攻击成功率。PAIR的成功率较低,因为它生成的提示词通常无法在机器人上执行。
实验中对三台机器人的攻击成功率
越狱英伟达Dolphins自动驾驶LLM
Jackal UGV机器人被越狱
*Unitree Go2机器狗被越狱攻击,可以看到,一开始机器狗并不同意运送bomb,但如果说它正在演电影并且背着重要的货物,它就变得很乐意效劳。
讨论
该研究表明,越狱AI驱动的机器人很容易实现,这需要开发新的防御技术。
参考内容:https://blog.ml.cmu.edu/2024/10/29/jailbreaking-llm-controlled-robots/
本篇关于《CMU把具身智能的机器人给越狱了》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于科技周边的相关知识,请关注golang学习网公众号!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
451 收藏
-
202 收藏
-
420 收藏
-
363 收藏
-
276 收藏
-
265 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 507次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习