登录
首页 >  科技周边 >  人工智能

重磅!TeleAI 完成首个全国产化万卡万参大模型训练

来源:机器之心

时间:2024-09-29 19:28:01 101浏览 收藏

科技周边小白一枚,正在不断学习积累知识,现将学习到的知识记录一下,也是将我的所得分享给大家!而今天这篇文章《重磅!TeleAI 完成首个全国产化万卡万参大模型训练》带大家来了解一下##content_title##,希望对大家的知识积累有所帮助,从而弥补自己的不足,助力实战开发!


近日,中国电信人工智能研究院(TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型(万卡万参),并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型——星辰语义大模型 TeleChat2-115B。这是由中国电信集团 CTO、首席科学家、中国电信人工智能研究院(TeleAI)院长李学龙教授带领团队完成的又一项里程碑式的重要科研成果,标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。TeleChat2-115B 基于中国电信自研的天翼云“息壤一体化智算服务平台”和人工智能公司“星海 AI 平台”训练完成,在保证训练精度的前提下利用多种优化手段提升模型训练效率和稳定性,实现了 GPU 同等算力计算效率的 93% 以上,同时模型有效训练时长占比达到 98% 以上。

重磅!TeleAI 完成首个全国产化万卡万参大模型训练

TeleChat-52B在OpenCampass推理榜单排名第一

在今年5月的OpenCampass测试榜单中,TeleChat系列模型的逻辑推理能力名列开源大模型榜单第一。

TeleChat2-115B在C-Eval评测中排名第一

作为新一代版本,TeleChat2-115B在9月最新公布的C-Eval评测Open Access模型综合榜单中,以86.9分的成绩排名第一。其通用能力较TeleChat系列模型提升近30%,特别是在工具使用、逻辑推理、数学计算、代码生成和长文写作等方面能力均有大幅提升。

重磅!TeleAI 完成首个全国产化万卡万参大模型训练


TeleChat2-115B在C-Eval Open Access模型综合榜单中排名第一
TeleChat2在模型训练与数据构建方面的研究经验
针对超大参数模型训练,TeleAI采用大量小模型进行Scaling,验证不同模型结构的有效性。同时,基于小模型实验结果反馈,采用回归预测模型,得到较优数据配比。
上述策略大幅提升了大参数模型最优方案的搜寻效率。此外,TeleAI通过实验验证探索了退火最佳数据量、最佳配比和学习率变化方式,进一步提升了模型训练效果。
在Post-Training(后训练)方面,TeleAI针对数学、代码和逻辑推理等内容合成了大量问答数据,用于SFT(监督式微调)第一阶段模型训练。其次,采用迭代式更新策略,使用模型对Prompt(提示词)数据进行指令复杂性提升与多样性扩充,通过模型合成和人工标注提升答案质量,利用拒绝采样获取优质SFT数据及RM(奖励模型)代表性数据,用于SFT训练和DPO(偏好对齐)训练,以及模型效果迭代。
TeleAI自研语义大模型获多项权威赛事第一名
连获中国计算语言学大会(CCL2024)挑战赛两项冠军:TeleAI在CCL2024大会获得中文空间语义理解评测和古文历史事件类型抽取评测两项第一名。在古文历史事件类型抽取评测任务挑战赛中,在所有子任务均取得第一名的情况下,获得了综合排名第一。
NLPCC2024中文议论文挖掘(Shared Task5)挑战赛冠军:TeleAI语义团队优化了大模型的上下文学习策略,通过Prompt设计、多模型投票机制等手段,提高了模型准确率和鲁棒性,最终排名第一。
开源共享,引领创新
TeleChat2-115B的开源标志着大模型国产化迈进了新征程。TeleAI积极通过开源推动大模型技术的进步,引领技术创新向产业落地快速跃迁。
开源地址:
GitHub:https://github.com/Tele-AI/TeleChat2Gitee:https://gitee.com/Tele-AI/tele-chat2Modescope:https://modelscope.cn/models/TeleAI/TeleChat2-115BModelers:https://modelers.cn/models/TeleAI/TeleChat2-115B

文中关于产业的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《重磅!TeleAI 完成首个全国产化万卡万参大模型训练》文章吧,也可关注golang学习网公众号了解相关技术文章。

声明:本文转载于:机器之心 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>