登录
首页 >  科技周边 >  人工智能

吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室

来源:51CTO.COM

时间:2023-10-28 09:29:53 349浏览 收藏

各位小伙伴们,大家好呀!看看今天我又给各位带来了什么文章?本文标题《吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室》,很明显是关于科技周边的文章哈哈哈,其中内容主要会涉及到等等,如果能帮到你,觉得很不错的话,欢迎各位多多点评和分享!

现如今,大型模型已经学会了从失败中吸取教训,变得更加聪明了

来自香港科技大学和华为诺亚方舟实验室的最新研究发现:

相比于一味规避“有毒”数据,以毒攻毒,干脆给大模型喂点错误文本,再让模型剖析、反思出错的原因,反而能够让模型真正理解“错在哪儿了”,进而避免胡说八道。

吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室

具体而言,研究人员提出了“从错误中学习”的对齐框架,并通过实验证明:

让大模型“吃一堑,长一智”,在纠正未对齐的模型方面超越了SFT和RLHF的方法,而且在对已对齐模型进行高级指令攻击的防御方面也具有优势

请一同来查看详细信息

从错误中学习的对齐框架

对齐算法主要分为两大类

  • 有监督的微调(SFT)
  • 人类反馈的强化学习(RLHF)

SFT方法的主要依赖是大量人工标注的问答对,其目的是让模型学习到“完美的回复”。然而,这种方法的缺点在于模型很难从中获取对于“不良回复”的认知,这可能会限制其泛化能力

RLHF方法则通过人类标注员对回复的排序打分来训练模型,使其能够区分回复的相对质量。这种模式下,模型学会了如何区分答案的高下,但它们对于背后的“好因何好”与“差因何差”知之甚少。

总的来说,这些对齐算法执着于让模型学习“优质的回复”,却在数据清洗的过程中遗漏了一个重要环节——从错误中汲取教训。

能不能让大模型像人类一样,“吃一堑,长一智”,即设计一种对齐方法,让大模型既能从错误中学习,又不受含有错误的文本序列影响呢?

吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室

大语言模型的对齐框架可以通过以下4个步骤实现:“从错误中学习”。这些步骤分别是:(1)通过错误诱导(2)基于提示指引的错误分析(3)无引导的模型微调(4)基于提示引导的回复生成

香港科技大学和华为诺亚方舟实验室的研究团队对此进行了实验。可以改写为:这项研究进行了实验,由香港科技大学和华为诺亚方舟实验室的研究团队完成

通过对Alpaca-7B、GPT-3和GPT-3.5这三个模型的实验分析,他们得出了一个有趣的结论:

对于这些模型,识别错误的回复,往往比在生成回复时避免错误来得容易

吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室

生成比判别更容易

通过进一步的实验揭示,可以发现,通过提供适当的指导信息,比如提示模型“回复中可能存在错误”,可以显著提高模型识别错误的准确性

基于这些发现,研究团队设计了一种利用模型对错误的判别能力来优化其生成能力的全新对齐框架。

对齐流程是这样的:

需要重新写的是:(1)误导性信息

这一步的目的是引导模型产生错误,找出模型的薄弱环节,从而进行错误分析和修正

可以从已有的标注数据中找到这些错误案例,也可以是模型在实际运行中被用户发现的错误

研究发现,通过进行红队攻击,即向模型的指令中添加一些诱导性关键词(如“不道德”和“冒犯”),模型通常会产生大量不适当的回复,如图(a)所示

需要进行重写的内容是:(2)基于提示引导的错误分析

在收集到足够多包含错误的问答对之后,方法会进入第二步,即引导模型对这些问答对进行深入分析

具体来说,该研究要求模型解释为什么这些回复可能是不正确或不道德的。

通过提供明确的分析指导,比如询问“为什么这个答案可能是错误的”,模型通常能给出合理的解释,如图(b)所示

需要进行重新编写的内容是:(3)非指导型模型微调

在对大量错误问答对及其分析进行收集后,该研究使用这些数据来进一步微调模型。除了包含错误的问答对外,还添加了人类标注的正常问答对作为训练数据

如下图(c)所示,在这一步骤中,该研究并没有给模型任何关于回复中是否包含错误的直接提示。这样做的目的是鼓励模型自行思考、评估并理解出错的原因。

(4)基于提示引导的回复生成

推理阶段采用了基于引导的回复生成策略,明确提示模型产生“正确的、符合道德且无冒犯性”的回复,从而确保模型遵守道德规范,避免受到错误文本序列影响。

即,在推理过程中,模型基于符合人类价值观的生成指导,进行条件生成,从而产生恰当的输出。

吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室

大语言模型对齐框架指令示例的主要目的是通过从错误中学习来提高语言模型的质量

对于上述框架,不需要人类标注或外部模型(如奖励模型)的参与。模型通过分析自身对错误的判别能力来促进其生成能力

就拿这个例子来说,“从错误中学习”能够准确地识别用户指令中的潜在风险,并给出合理准确的回复:

吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室

实验结果

研究团队围绕两大实际应用场景展开实验,验证新方法的实际效果。

场景一:未经过对齐的大语言模型

以Alpaca-7B模型为基线,该研究采用了PKU-SafeRLHF Dataset数据集进行实验,与多种对齐方法进行了对比分析。

以下是实验结果的表格:

当保持模型的有用性时,“从错误中学习”的对齐算法在安全通过率上相比SFT、COH和RLHF提高了大约10%,与原始模型相比,提升了21.6%

同时,该研究发现,由模型自身产生的错误,相较于其他数据源的错误问答对,展现出了更好的对齐效果。

吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室

需要重新编写的内容是:△尚未进行对齐的大型语言模型实验结果

场景二:已对齐模型面临新型指令攻击

研究团队进一步研究了如何加强已经过对齐的模型,以应对新出现的指令攻击模式

这里,该研究选择了ChatGLM-6B作为基线模型。ChatGLM-6B已经经过安全对齐,但面对特定指令攻击时仍可能产生不符合人类价值观的输出。

研究人员以“目标劫持”这种攻击模式为例,并使用含有这一攻击模式的500条数据进行了微调实验。如下表所示,“从错误中学习”的对齐算法在面对新型指令攻击时展现出了强大的防御性:即使只使用少量的新型攻击样本数据,模型也能成功保持通用能力,并在针对新型攻击(目标劫持)的防御上实现了16.9%的提升。

实验还进一步证明,通过“从错误中学习”策略获得的防御能力,不仅效果显著,而且具有很强的泛化性,能够广泛应对同一攻击模式下的多种不同话题。

吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室

重新写作后的内容:经过对齐的模型能够有效抵御新型攻击

论文链接:https://arxiv.org/abs/2310.10477

今天关于《吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

声明:本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>