登录
首页 >  科技周边 >  人工智能

强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试

时间:2025-01-11 18:18:28 378浏览 收藏

大家好,我们又见面了啊~本文《强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试》的内容中将会涉及到等等。如果你正在学习科技周边相关知识,欢迎关注我,以后会给大家带来更多科技周边相关文章,希望我们能一起进步!下面就开始本文的正式内容~

一项最新研究表明,即使是最先进的大语言模型 (LLM) 也难以始终如一地遵循人类设定的规则。加州大学伯克利分校、斯坦福大学、AI安全中心 (CAIS) 和阿卜杜勒阿齐兹国王科技城 (KACST) 的研究人员开发了一个名为 RULES 的基准测试框架,以编程方式评估 LLM 遵循规则的能力。

强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试

RULES 基准测试模拟了各种场景,要求模型在遵循特定规则的同时生成文本。例如,模型可能需要在不泄露敏感信息的情况下与用户进行对话,或者在遵循特定格式的同时生成文本。

强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试

研究人员对包括 GPT-4、Claude、Gemini 等闭源模型以及 Llama-2、Mistral 等 123 个开源模型进行了测试。结果显示,大多数模型,即使是最强大的模型,也未能通过所有测试。即使是表现最好的 GPT-4,也未能通过 93 项测试。

强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试

RULES 基准测试包含 14 个场景,每个场景都涉及一个或多个规则。这些规则被设计为难度递增,从简单的良性测试到更具挑战性的红队测试,旨在测试模型在各种情况下遵循规则的能力。 研究人员还设计了多种策略来试图诱导模型违反规则,包括间接请求、法律术语的误导性解释、混淆请求、规则更改和模拟场景。

强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试

这项研究突显了当前 LLM 在规则遵循方面的局限性。虽然一些模型在某些测试中表现良好,但整体结果表明,确保 LLM 始终如一地遵循规则仍然是一个挑战。 这对 LLM 的安全性和可靠性具有重大意义,并强调了进一步研究和改进的必要性。

强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试

强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试

强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试

论文链接:https://arxiv.org/pdf/2311.04235v3.pdf

今天关于《强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>