RLHF 2%的算力应用于消除LLM有害输出,字节发布遗忘学习技术
来源:51CTO.COM
时间:2023-12-14 11:43:43 200浏览 收藏
golang学习网今天将给大家带来《RLHF 2%的算力应用于消除LLM有害输出,字节发布遗忘学习技术》,感兴趣的朋友请继续看下去吧!以下内容将会涉及到等等知识点,如果你是正在学习科技周边或者已经是大佬级别了,都非常欢迎也希望大家都能给我建议评论哈~希望能帮助到大家!
随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。
目前业界的主流解决方案是通过使用强化学习的方式对齐LLM(对齐)来微调对比数据(正样本和负样本),以确保LLM的输出符合人类的预期和价值观。然而,这个对齐过程通常会受到数据收集和计算资源的限制
字节跳动提出了一种让LLM进行遗忘学习的方法来进行对齐。本文研究了如何在LLM上进行"遗忘"操作,即忘记有害行为或遗忘学习(Machine Unlearning)。作者展示了遗忘学习在三种LLM对齐场景上取得的明显效果:(1)删除有害输出;(2)移除侵权保护内容;(3)消除大语言LLM幻觉
遗忘学习有三个优势:(1) 只需负样本(有害样本),负样本比 RLHF 所需的正样本(高质量的人工手写输出)的收集简单的多(比如红队测试或用户报告);(2) 计算成本低;(3) 如果知道哪些训练样本导致 LLM 有害行为时,遗忘学习尤为有效。
作者的论点是,对于资源有限的从业者来说,他们应该优先考虑停止产生有害输出,而不是试图追求过于理想化的输出,并且忘记学习是一种方便的方法。尽管只有负样本,研究表明,在只使用2%的计算时间下,忘记学习仍然可以获得比强化学习和高温高频算法更好的对齐性能
- 论文地址:https://arxiv.org/abs/2310.10683
- 代码地址:https://github.com/kevinyaobytedance/llm_unlearn
使用场景
在资源有限的情况下,我们可以采用这种方法来最大程度地发挥优势。当我们没有预算请人员编写高质量样本或者计算资源不足时,我们应该优先停止 LLM 产生有害输出,而不是试图让它产生有益输出
有害的输出所造成的损害是无法被有益的输出所弥补的。如果一个用户向LLM提出100个问题,他得到的答案是有害的,那么他将失去信任,无论LLM之后提供了多少有益的答案。有害问题的预期输出可能是空格、特殊字符、无意义的字符串等,总之,必须是无害的文本
展示了LLM遗忘学习的三个成功案例:(1) 停止生成有害回复(请将内容改写为中文,不需要出现原始句子);这与RLHF情境相似,区别是本方法的目标是生成无害回复,而不是有益回复。当只有负样本时,这是能期望的最好结果。(2) 在使用侵权数据训练后,LLM成功删除了数据,并考虑到成本因素不能重新训练LLM;(3) LLM成功忘记了"幻觉"
请将内容改写为中文,不需要出现原始句子
方法
在微调步骤t中,LLM的更新如下:
第一项损失为梯度上升(graident descent),目的为忘记有害样本:
为有害提示 (prompt),
为对应的有害回复。整体损失反向提升了有害样本的损失,即让 LLM “遗忘” 有害样本。
第二项损失是针对随机误配的,它要求LLM在有害提示的情况下预测出无关回复。这类似于分类中的标签平滑(label smoothing [2])。其目的是让LLM更好地遗忘有害提示上的有害输出。同时,实验证明这种方法可以提高LLM在正常情况下的输出性能
第三项损失为在正常任务上维持性能:
同 RLHF 类似,在预训练 LLM 上计算 KL 散度能更好保持 LLM 性能。
此外,所有的梯度上升和下降都只在输出(y)部分做,而不是像 RLHF 在提示 - 输出对(x, y)上。
应用场景:忘却有害内容等
本文用 PKU-SafeRLHF 数据作为遗忘数据,TruthfulQA 作为正常数据,图二的内容需要进行改写显示了遗忘学习后 LLM 在忘却的有害提示上输出的有害率。文中使用的方法为 GA(梯度上升和 GA+Mismatch:梯度上升 + 随机误配)。遗忘学习后的有害率接近于零。
图二的内容需要进行改写
第三张图显示了有害提示(不被遗忘)的输出结果,这是之前未曾见过的。即使是在没有被遗忘的有害提示上,LLM 的有害率也接近于零,这证明LLM遗忘的不仅仅是具体的样本,而是泛化到了包含有害概念的内容
图三
LLM 在正常样本上的性能和忘却前保持类似,同时具有以下特点
表一展示了生成的样本。可以看到在有害提示下,LLM 生成的样本都是无意义字符串,即无害输出。
表一
在其他场景中,比如忘却侵权内容和忘却幻觉,该方法的应用原文进行了详细的描述
RLHF 比较
需要改写的内容是:第二张表格展示了该方法和RLHF的比较,其中RLHF使用了正例,而遗忘学习方法只使用了负例,因此一开始该方法处于劣势。但即便如此,遗忘学习仍能达到与RLHF相似的对齐性能
需要改写的内容是:第二张表格
需要重写的内容:第四张图片显示了计算时间的比较,本方法只需 RLHF 2% 的计算时间。
需要重写的内容:第四张图片
即使只有负样本,使用遗忘学习的方法也可以获得与 RLHF 相当的无害率,并且只需使用 2% 的计算能力。因此,如果目标是停止输出有害内容,相比于 RLHF,遗忘学习的效率更高
结论
这项研究首次探索了LLM上的遗忘学习。研究结果显示,遗忘学习是一种有希望的对齐方法,尤其是在从业者资源不足的情况下。论文展示了三种情况:遗忘学习可以成功删除有害回复、删除侵权内容和消除错觉。研究表明,即使只有负样本,遗忘学习仍然可以在仅使用RLHF计算时间的2%情况下,获得与RLHF相似的对齐效果
今天关于《RLHF 2%的算力应用于消除LLM有害输出,字节发布遗忘学习技术》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于模型,算力的内容请关注golang学习网公众号!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
299 收藏
-
367 收藏
-
274 收藏
-
117 收藏
-
128 收藏
-
286 收藏
-
467 收藏
-
259 收藏
-
195 收藏
-
321 收藏
-
174 收藏
-
295 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习