登录
首页 >  科技周边 >  业界新闻

“人工智能+”硅基流动全面启动

时间:2025-09-24 18:39:50 410浏览 收藏

国务院印发《关于深入实施“人工智能+”行动的意见》,标志着“人工智能+”硅基流动全面启动。该《意见》明确了未来人工智能发展的阶段性目标,并强调推进人工智能与关键领域的深度融合,强化基础支撑能力。硅基流动作为AI基础设施平台,积极响应国家政策,致力于为开发者、企业客户以及产业数字化转型提供一体化的AI基础设施支持,助力AGI在各行各业实现规模化落地。硅基流动通过技术突破、产品打磨与生态共建,提供可信赖的AI能力,降低AI应用开发与使用门槛。其核心产品大模型服务平台已服务超过700万用户,日均处理 Token 数量突破千亿级,正积极探索“模型即服务”(MaaS)模式,让AI能力“用得上、用得好、用得起”,为加速人工智能普惠化进程贡献力量。

“人工智能+ ”  硅基流动在行动

8月26日,国务院印发《关于深入实施“人工智能+”行动的意见》(以下简称《意见》),明确提出了2027年、2030年和2035年的阶段性发展目标。实现这些目标的关键在于切实推进各项重点任务落地。《意见》中强调要加快推动人工智能与六大关键领域的深度融合,而要在真实场景中释放AI的强大潜力,“强化基础支撑能力”成为不可或缺的底层保障。

作为成立两年的AI基础设施(AI Infra)平台,硅基流动始终坚信应用场景是驱动基础设施发展的核心动力。我们通过技术突破、产品打磨与生态共建,在AI基础设施领域持续深耕。自创立之初,我们就确立了清晰的定位——做可信赖的AI能力提供者,依托算法、系统与硬件的协同创新,大幅降低AI应用开发与使用的门槛,让先进的人工智能真正触手可及。

过去两年间,硅基流动的核心产品为大模型服务平台,已服务超过700万用户,日均处理 Token 数量突破千亿级。这一不断增长的数据背后,是对我们服务能力的真实认可,也让“Token 自由”从愿景走向现实。

响应国家政策号召,硅基流动正积极行动,致力于为开发者、企业客户以及产业数字化转型提供一体化的AI基础设施支持,助力AGI在各行各业实现规模化落地,为加速人工智能普惠化进程贡献自己的力量。

值此《意见》发布之际,我们也借此机会回顾过往两年的发展历程,分享实践中的经验与思考,向一直以来支持我们的用户、合作伙伴以及关注硅基流动的业界同仁进行一次真诚交流。

模型即服务:让 AI 能力“用得上、用得好、用得起”

《意见》第十条明确提出发展“模型即服务”(MaaS)、“智能体即服务”,并构建完整的人工智能应用服务链条。这为行业指明了方向,也坚定了我们的信心。MaaS 正逐渐成为主流的产品形态,而硅基流动正是这一路径的坚定践行者。

我们的 MaaS 理念非常朴素:既然大模型具备巨大价值,那就应该让更多人能够便捷地使用它。然而不同用户的技术能力和资源条件差异显著,中间存在巨大的服务空间。我们的角色,就是在模型与实际应用之间搭建一座高效桥梁,实现三个关键词:用得上、用得好、用得起。

第一层目标是“用得上”——降低部署门槛,让用户轻松接入模型能力。借助大模型服务平台,用户可通过标准 API 快速调用上百款主流模型,如满血版 DeepSeek-R1 & V3、Qwen、FLUX.1、CosyVoice 等。形象地说,这就像从毛坯房到精装交付,无需再操心 GPU 选型、模型下载、环境配置、代码调试和上线部署等复杂流程。即便是零代码基础的用户也能迅速上手,极大推动了AI技术的普及化。

第二层是“用得好”——提升使用效率,满足多样化场景需求。能用只是起点,“好用”才是关键。无论是文本生成、图像创作,还是音视频处理、智能应用开发,最终都要解决实际问题、产生真实价值。随着使用深入,用户对模型训练、微调、稳定性、横向扩展、负载均衡等能力的需求日益增强。为此,我们打造了模型广场功能,帮助用户灵活选择最适合当前任务的模型,并将其高效转化为可用的应用解决方案。

第三层则是“用得起”——控制成本,支撑规模化落地。相比于小范围验证或Demo演示,大规模商用带来的成本压力呈指数级上升,尤其是Token消耗和长上下文推理所需的算力投入。如何优化资源利用率、压缩单位成本,让AI像水电一样按需取用、经济实惠,是我们必须攻克的难题。

解决上述三层挑战并非单一环节的优化所能达成,而是涉及算法、芯片、工程架构等多个维度的系统性创新。我们在推理加速引擎方面实现了自主研发;在算力层面,积极拥抱国产化趋势,率先完成多类国产芯片的深度适配。正是这些综合努力,才使得高性价比的大模型服务成为可能。

每一位平台用户的使用行为,每一个被消耗的Token,都是对我们工作的正向激励。当然,硅基流动仍在成长路上,我们将继续探索更多可能性,并推出更多新产品以满足不断演进的需求。

国产芯片:从“造出来”迈向“大规模商用”

《意见》第九条指出:“强化智能算力统筹”,“支持人工智能芯片攻坚创新与使能软件生态培育”,“完善全国一体化算力网”,“推动智能算力供给普惠易用、经济高效、绿色安全”。

在大模型时代,算力的重要性不言而喻。我们面临的核心命题是:如何让国产AI芯片不仅“可用”,更要“好用”?如何提升其利用率,达到甚至接近国际主流GPU的性能表现?经过长期探索,我们找到了答案——自研高性能推理引擎,并优先支持国产芯片。

今年2月,我们率先基于昇腾平台上线 DeepSeek-R1 & V3 服务。上线后用户体验和性价比均达到国际主流GPU水平,充分验证了国产算力承载大模型商业服务的可行性,也极大增强了我们的信心。同年,我们还与华为联合发布了关于新一代AI数据中心架构 CloudMatrix384 的研究成果,该项目体现了“非摩尔补摩尔”、“以软件补硬件”的典型思路。

除了昇腾,我们也持续推进其他国产芯片的适配工作。今年7月,成功在沐曦曦云 C550 集群上部署月之暗面 Kimi-K2 服务。目前更多国产芯片型号正在陆续接入中。这些实践有效弥补了国产芯片在软件生态方面的短板,让用户可以无缝、无感地使用国产算力资源。

我们观察到国产芯片正经历从“可用”到“好用”的跃迁,总结两点关键进展:

  1. 借助自研推理引擎与MaaS产品模式,国产芯片得以被广大用户便捷调用。用户无需关心底层芯片类型,也不必处理复杂的适配、优化问题,即可实现即开即用。

  2. 国产芯片在大规模推理场景下展现出显著的成本优势。尽管当前已有大量算力建成,但普遍存在利用率低、闲置严重的问题。硅基流动通过算力整合与统一纳管,显著提升了多元异构算力的利用效率,支持弹性扩缩容,真正实现按需分配、高效使用。

开源生态:信仰驱动的长期主义

《意见》第十一条提出“促进开源生态繁荣”,我们对此深有共鸣。

自硅基流动创立伊始,我们就将开源视为一项信仰。“因为相信,所以看见”——我们坚信开源模型终将追平乃至超越闭源模型,而这一趋势正在加速兑现。开放的模型策略和良性的竞争环境,正推动中国开源模型快速崛起。

如今,国内主流大模型普遍选择开源,且越来越多的中国开源模型在全球范围内处于领先地位。这些成果正在重塑全球AI格局,推动中国AI生态从“跟随者”向“规则制定者”转变,中国AI能力也正从“学习模仿”迈向“引领创新”。

硅基流动基于开源模型和自研推理技术,将前沿开源模型封装成开箱即用的服务,用户无需自行下载、部署或调优,即可直接调用所需模型。我们所有的努力都围绕一个目标:让用户以最低门槛、最高性能、最低成本获得最先进的AI能力。

结语:跑步迈进“新”时代

成立两年来,硅基流动在《意见》中感受到强烈的政策指引与时代召唤,倍感振奋。《意见》中提到的“智能原生”概念尤为引人注目:“大力发展智能原生技术、产品和服务体系,加快培育一批底层架构和运行逻辑基于人工智能的智能原生企业,探索全新商业模式,催生智能原生新业态。”这预示着一场深刻的变革正在到来,也将孕育出属于这个时代的全新产品形态与商业范式。

在这个历史性节点上,无论企业还是个人,都站在了全新的起跑线上。时不我待,唯有立即行动。让我们共同把握“人工智能+”的时代机遇,携手前行,迎接属于每个人的智能新时代。

以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于科技周边的相关知识,也可关注golang学习网公众号。

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>