登录
首页 >  科技周边 >  人工智能

首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

时间:2025-02-19 15:07:30 376浏览 收藏

最近发现不少小伙伴都对科技周边很感兴趣,所以今天继续给大家介绍科技周边相关的知识,本文《首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight》主要内容涉及到等等知识点,希望能帮到你!当然如果阅读本文时存在不同想法,可以在评论中表达,但是请勿使用过激的措辞~

加州大学伯克利分校吴梓阳博士及其团队提出了一种新型Transformer架构——Token Statistics Transformer (ToST),其核心是线性时间复杂度的注意力机制。这项研究成果已发表在ICLR 2025,并被选为Spotlight论文。马毅教授将在今年四月ICLR大会上进行主题报告。

图片

ToST巧妙地解决了传统Transformer架构中自注意力机制计算复杂度高的问题。传统自注意力机制的计算复杂度随输入token数量呈二次方增长,而ToST通过对序列特征的统计建模,将时间复杂度降低至线性。 这使得ToST能够高效处理更长序列和更大模型。

图片

核心创新:Token Statistics Self-Attention (TSSA)

ToST的核心是TSSA,它通过避免两两相似性计算,仅依赖于token特征的统计量,从而实现线性复杂度。 该方法基于变分编码率缩减(Variational Rate Reduction, VRR)框架,并通过实验验证了其在不同任务上的有效性。

图片

方法概述: ToST通过提取统计特征,利用VRR框架压缩特征,最终实现线性时间复杂度。 其架构基于先前CRATE工作的扩展,通过最大编码率缩减目标(MCR²)的变分形式推导得出。

图片

图片

实验结果与性能分析: ToST在多个领域(NLP、CV)的任务中都取得了优异的成绩,同时显著降低了计算资源消耗。实验结果表明,ToST在计算时间和内存使用上均实现了线性扩展,且性能与传统Transformer架构相当甚至更好。

图片图片图片图片图片图片图片

未来影响: ToST的线性时间复杂度注意力机制,为大模型的高效化、Transformer的普适化应用、多模态融合以及跨学科应用提供了新的可能性,具有重要的学术意义和应用价值。

本篇关于《首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于科技周边的相关知识,请关注golang学习网公众号!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>