登录
首页 >  科技周边 >  人工智能

AI语言模型的「人脑模式」:增量上下文机制如何让机器读懂长文本?

时间:2025-02-02 14:22:03 438浏览 收藏

在IT行业这个发展更新速度很快的行业,只有不停止的学习,才不会被行业所淘汰。如果你是科技周边学习者,那么本文《AI语言模型的「人脑模式」:增量上下文机制如何让机器读懂长文本?》就很适合你!本篇内容主要包括##content_title##,希望对大家的知识积累有所帮助,助力实战开发!

以色列理工学院的研究团队近期在《自然通讯》(Nature Communications) 发表了一篇突破性论文,揭示了大型语言模型(LLMs)与人脑在处理长文本时的关键差异,并提出了一种创新的“增量上下文模型”来弥合这一差距。

图片

研究发现,人类大脑通过“增量上下文累积”机制,动态整合短期语言输入和长期记忆摘要,而现有的LLMs则依赖固定长度的上下文窗口进行并行处理。 通过分析219名受试者的fMRI数据,研究人员发现传统LLMs仅在约32个token的短上下文范围内与神经信号对齐。 当上下文窗口扩大到2048个token时,其在默认模式网络(DMN)关键区域(如楔前叶、颞顶联合区和内侧前额叶皮层)的神经预测性能反而下降。

图片

为了模拟人脑的层级化时间整合机制,研究团队提出了增量上下文模型。该模型利用提示工程,将长文本处理分解为两个步骤:首先,每处理100个token,就让LLM生成一个不超过50个token的摘要;然后,将最新的摘要与32个token的短窗口上下文拼接,作为下一阶段模型的输入。 这种方法有效降低了计算复杂度,同时保持了语义连贯性。

图片

实验结果显示,增量上下文模型在DMN区域的神经编码准确率显著高于传统长窗口模型,尤其在楔前叶区域表现突出。 进一步的频谱分析表明,高阶脑区(如楔前叶)的低频功率与增量模型的预测优势呈正相关,而初级听觉皮层的高频功率则与短窗口模型性能相关,这从信号动力学角度证实了低频振荡反映长时上下文整合,高频振荡对应短时语言单元的快速处理。

图片

图片

图片

图片

这项研究为认知神经科学提供了可计算框架,也为未来AI系统的设计提供了新的思路,提示需要兼顾并行效率和生物合理性。 然而,该模型仍有局限性,未来研究需要进一步完善,例如结合脑电(EEG)和颅内记录(ECoG)数据,探索跨模态的上下文累积机制。 论文链接:https://www.nature.com/articles/s41467-025-56162-9 代码链接:https://github.com/RefaelTikochinski/Incremental-Accumulation-of-Linguistic-Context-in-Artificial-and-Biological-Neural-Networks

文中关于理论的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《AI语言模型的「人脑模式」:增量上下文机制如何让机器读懂长文本?》文章吧,也可关注golang学习网公众号了解相关技术文章。

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>