登录
首页 >  科技周边 >  人工智能

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

来源:51CTO.COM

时间:2023-12-15 14:11:40 131浏览 收藏

科技周边小白一枚,正在不断学习积累知识,现将学习到的知识记录一下,也是将我的所得分享给大家!而今天这篇文章《解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98》带大家来了解一下##content_title##,希望对大家的知识积累有所帮助,从而弥补自己的不足,助力实战开发!

各家大模型纷纷卷起上下文窗口,Llama-1时标配还是2k,现在不超过100k的已经不好意思出门了。

然鹅一项极限测试却发现,大部分人用法都不对,没发挥出AI应有的实力

AI真的能从几十万字中准确找到关键事实吗?颜色越红代表AI犯的错越多。

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

默认情况下,GPT-4-128k和最新发布的Claude2.1-200k成绩都不太理想。

但Claude团队了解情况后,给出超简单解决办法,增加一句话,直接把成绩从27%提升到98%。

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

只不过这句话不是加在用户提问上的,而是让AI在回复的开头先说:

“Here is the most relevant sentence in the context:”

(这就是上下文中最相关的句子:)

让大模型大海捞针

为了做这项测试,作者Greg Kamradt自掏腰包花费了至少150美元。

在测试Claude2.1时,Anthropic提供了免费额度给他,幸好这样他就不用花费额外的1016美元了

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

其实测试方法也不复杂,都是选用YC创始人Paul Graham的218篇博客文章当做测试数据。

在文档的不同位置添加特定的语句:旧金山最美好的事情就是在阳光明媚的日子里,坐在多洛雷斯公园,享用一份三明治

请使用所提供的上下文来回答问题,在不同上下文长度和添加在不同位置的文档中,反复测试GPT-4和Claude2.1

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

最终使用Langchain Evals库对结果进行评估

作者把这套测试命名为“干草堆里找针/大海捞针”,并把代码开源在GitHub上,已获得200+星,并透露已经有公司赞助了对下一个大模型的测试。

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

AI公司自己找到解决办法

几周后,Claude背后公司Anthropic仔细分析后却发现,AI只是不愿意回答基于文档中单个句子的问题,特别是这个句子是后来插入的,和整篇文章关系不大的时候。

换句话说,如果AI判断这句话与文章主题无关,则会采取不查找每句话的方法

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

这时就需要用点手段晃过AI,要求Claude在回答开头添加那句“Here is the most relevant sentence in the context:”就能解决。

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

使用这种方法可以提高Claude的表现,即使在查找原文中未被人为添加的句子时也可以如此

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

Anthropic公司表示将来会不断的继续训练Claude,让它能更适应此类任务。

在使用API时,要求AI以特定的开头回答,并且还可以有其他巧妙的用途

马特·舒默(Matt Shumer)这个创业家在阅读该方案后给出了一些小技巧的补充

如果想让AI输出纯JSON格式,提示词的最后以“{”结尾。同理,如果想让AI列出罗马数字,提示词以“I:”结尾就行。

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

不过事情还没完……

国内的大型公司也开始注意到这项测试,并开始尝试他们自己的大型模型是否能够通过

同样拥有超长上下文的月之暗面Kimi大模型团队也测出了问题,但给出了不同的解决方案,也取得了很好的成绩。

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

在不改变原义的情况下,需要重写的内容是:这样做的好处是,修改用户提问提示比要求AI在回答中添加一句更容易实现,尤其是在不调用API而直接使用聊天机器人产品的情况下

我使用了一种新方法来帮助测试GPT-4和Claude2.1的月球背面,结果显示GPT-4取得了显著的改善,而Claude2.1只有轻微的改善

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

看来这个实验本身有一定局限性,Claude也是有自己的特殊性,可能与他们自己的对齐方式Constituional AI有关,需要用Anthropic自己提供的办法更好。

后来,月球背面的工程师继续进行了更多轮的实验,其中一个实验居然是……

解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98

糟糕,我变成测试数据了

今天关于《解锁GPT-4和Claude2.1:一句话带你实现100k+上下文大模型的真实力,将27分提升至98》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

声明:本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>