登录
首页 >  科技周边 >  业界新闻

谷歌推出长上下文模型TimesFM-2.5

时间:2025-09-22 11:00:31 481浏览 收藏

在科技周边实战开发的过程中,我们经常会遇到一些这样那样的问题,然后要卡好半天,等问题解决了才发现原来一些细节知识点还是没有掌握好。今天golang学习网就整理分享《谷歌推出长上下文模型 TimesFM-2.5》,聊聊,希望可以帮助到正在努力赚钱的你。

谷歌研究团队发布了TimesFM-2.5,这是一个拥有2亿参数、采用纯解码器架构的时间序列基础模型。

与前代相比,TimesFM-2.5在将模型参数缩减一半的基础上,大幅延长了上下文长度,在运行效率和预测性能方面实现了重要突破。

TimesFM-2.5的核心优势包括:

  • 轻量高效:参数规模降至200M,推理速度更快,同时精度进一步提升。
  • 长期依赖建模:支持最高达16K长度的输入上下文,显著增强对历史数据的捕捉能力,适用于长期趋势预测。
  • 性能领先:在GIFT-Eval基准测试中,该模型于点预测与概率预测任务(以MASE、CRPS为指标)均位居榜首。

谷歌发布长上下文基础模型 TimesFM-2.5

谷歌发布长上下文基础模型 TimesFM-2.5

目前,TimesFM-2.5已正式在Hugging Face平台开放使用,同时正逐步与BigQuery及Model Garden实现集成,有望推动零样本时间序列预测在实际业务中的广泛应用。

https://huggingface.co/google/timesfm-2.5-200m-pytorch

好了,本文到此结束,带大家了解了《谷歌推出长上下文模型TimesFM-2.5》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>