关闭广告

只靠国产算力预训练,稳!全流程开源,「开元」盛世真来了

新智元1345人阅读


新智元报道

编辑:LRST

【新智元导读】当算力受限、数据参差,如何训练出高效可用的端侧模型?鹏城实验室联合清华不仅给出了答案,更将每一步都开源共享。

如果实验室只有国产算力、有限资源与开源数据,能否玩转端侧模型的预训练?

鹏城实验室与清华大学PACMAN实验室联合发布了鹏城脑海‑2.1‑开元‑2B(PCMind‑2.1‑Kaiyuan‑2B,简称开元‑2B)模型,并以全流程开源的方式回应了这一挑战——从训练数据、数据处理框架、训练框架、完整技术报告到最终模型权重,全部开源。


模型链接:https://huggingface.co/thu-pacman/PCMind-2.1-Kaiyuan-2B

数据集:https://huggingface.co/datasets/thu-pacman/PCMind-2.1-Kaiyuan-2B

技术报告:https://arxiv.org/abs/2512.07612

数据处理框架:https://github.com/thu-pacman/Kaiyuan-Spark

训练框架:https://github.com/thu-pacman/kaiyuan-mindformers


此次开源不仅为国内研究者提供了一条可复现、可迭代的技术路径,也展现了在国产计算平台上实现高效、稳定预训练的完整解决方案。

开元‑2B的训练依托鹏城脑海 2计算平台,数据处理基于华为鲲鹏920,训练系统基于华为昇腾 910A

由于昇腾910A仅支持FP16精度(类似于NVIDIA V100),训练稳定性成为首要挑战。

为此,研究团队在 Qwen3‑1.7B 的架构基础上,引入了三明治范数(Sandwich Norm)软裁剪(Soft Clipping)两项关键技术。

三明治范数在Transformer每层前后保留归一化层,有效控制梯度传播中的数值范围

软裁剪通过对输出logits应用tanh非线性变换,将数值稳定在合理区间内,防止训练发散




加上三明治范数和软裁剪前后的数值稳定性对比

这些技术不仅使训练在FP16环境下保持稳定,也为后续国产平台上的大规模训练提供了重要参考。

开源数据

去重、评价与高效利用

当前开源预训练数据规模已达TB级别,来源多样、质量不均,如何从中筛选出高质量部分并制定混合策略,是训练优质模型的基础。

开元‑2B面对两个核心问题:

  1. 如何从海量数据中筛选高质量子集?

  2. 如何在不同数据集之间建立统一的质量评价标准?


全局去重的高效实现:Kaiyuan‑Spark框架

研究团队开发了Kaiyuan‑Spark数据处理框架,采用树状流水线设计,全程YAML配置管理,易于复现与扩展。

结合诸葛弩计算框架进行本地加速,在 MinHash 去重任务中实现端到端2.5倍的加速比,高效完成TB级数据的全局模糊去重。

分位标定(Quantile Benchmarking)

为解决数据集之间质量标签不可比的问题,团队提出分位标定:通过设计小规模探针实验,构建数据质量分数与下游任务表现之间的映射关系。


分位标定流程示意图

具体做法为:从不同数据集中按质量分位数抽取多个子集,然后使用小规模模型进行训练测试,最后根据下游任务表现反向标定各数据集的质量区间。

该方法成本低、可迁移,为后续大规模训练的数据配比提供了科学依据。

关键发现

基于分位标定,团队得出若干有趣发现:

数据集的优势与任务类型相关

Fineweb‑Edu在知识问答与阅读理解类任务上表现更好,DCLM‑Baseline 在常识推理类任务中略有优势。


DCLM Baseline和Fineweb-Edu在MMLU和WinoGrande上的分位标定结果

同一数据集内部质量差异巨大

最高与最低质量数据在ARC‑Easy上的表现相差可达8%‑15%


DCLM Baseline和Fineweb-Edu在ARC-Easy上的分位标定结果

可以看到,高质量数据占比虽小,却是提升模型能力的关键。

数据利用策略

动态调整与课程学习

针对数据分布不均的问题,开元‑2B提出三个策略。

多阶段动态比例调整

随着训练推进,逐步提升数学、代码、中文等领域数据的比例,缓解模型遗忘,使关键领域在训练后期得到充分学习。


多阶段调整数据比例

策略性数据重复


小规模实验表明,对高质量数据进行适度重复训练,效果优于单轮训练。开元‑2B在训练后期逐步提高高质量数据的重复比例。

以Fineweb-Edu为例:Top 10%的高质量数据在整个训练过程中出现多次,中低质量数据仅出现一次,从而优化数据效用分布。


Fineweb-Edu在多阶段训练中采样比例变化

多领域混合课程学习

研究团队提出Curriculum Decay Model Average,在课程学习的基础上引入权重平均,缓解训练噪声,提升收敛稳定性。


论文链接:https://arxiv.org/abs/2511.18903

该方法通过领域内质量排序领域间比例均衡的结合,实现多领域数据的渐进式学习。


学习率衰减会影响课程学习效果


不同学习率衰减条件下,最优的课程学习+权重平均配置(Ascend+EMA)要强于最优的常见做法(Uniform+WSD)


多领域课程的实现

配合精心设计的学习率调度方案,模型在高质量数据上得以充分学习,最终在多类评测中接近千问系列(仅开源权重)的模型表现。

全流程开源

推动国产AI生态共建

开元‑2B不仅是一次端侧模型训练的实践,更是一次全栈开源、全流程透明的技术示范。

从数据处理框架Kaiyuan‑Spark、训练数据集,到数据评价体系、课程学习策略,所有环节均公开可复现。训练中涉及的所有原始数据集均具有宽松的开源协议(如CC、Apache、MIT、ODC等,详细列表技术报告附录B),个人、院校、企业均可自由使用,进一步提升了训练的可复现性。

注:目前部分声称「开放」的公开数据集,事实上本身并非使用自由许可证授权,或者间接混入了带有非自由许可证的原始数据;另有大量的公开数据集,对来源数据的许可证未加任何筛选或说明。在模型训练中使用此类数据集并发布或使用,都可能带来潜在的法律合规风险。

这为国内研究者在国产算力平台上开展模型预训练提供了完整工具箱,也为构建开放、协作的 AI 研发生态迈出坚实一步。

模型权重、技术报告与相关代码已在官方平台发布,欢迎开发者、研究者共同参与测试、改进与拓展。

结语

真正的技术进步源自开放的协作与共享,开元‑2B是一个起点,未来与社区一起,在国产算力的土壤上,生长出更多创新的AI成果,从开元系列,开启国产算力训练的「开元盛世」

附录









左右滑动查看

参考资料:

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定新智元极速推送!

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

他陪了林青霞21年,眼睁睁看着她嫁给别人

二妹扯娱 浏览 1801

年轻人迷上在线下交换自制周边

钛媒体APP 浏览 1843

恰逢成都保卫战30周年,2025老甲A12月8日在成都双流开赛

懂球帝 浏览 1604

吸职工血、吞救命钱,42岁的她如今沦为过街老鼠

芳芳历史烩 浏览 1013

东华测试寻求打开机器人领域新空间

爱集微 浏览 1923

热爱正当时,新晋蛙后唐钱婷的双面人生

时尚COSMO 浏览 1221

比亚迪元PLUS高功率版曝光 电机功率增至230千瓦

网易汽车 浏览 2032

聚酯纤维都没嫌老实人穷

老斯基财经 浏览 1341

首富卷入惊天丑闻,妻子被瞒一无所知

Yuki女人故事 浏览 864

韩星张元英辱华发酵!相关代言遭抵制品牌方回应,本人持续装糊涂

萌神木木 浏览 1229

MINI与Paul Smith合作推出设计师款 东京车展首秀

网易汽车 浏览 1612

甩掉包袱 保时捷宣布2026年起逐步关停自建充电网络,转向公共充电矩阵

封面新闻 浏览 1291

商品期货今天涨疯了,地缘升温影响还能多久?

财联社 浏览 502

芯迈半导体二度递表,专利超300项!获国家级资本加持|港E声

时代周报 浏览 1157

英超第8轮最佳球员候选:马奎尔、哈兰德、萨卡、内托在列

懂球帝 浏览 1844

殷桃|每个表情都让人欲罢不能

农城浪子 浏览 1100

美媒:以总理计划说服特朗普帮忙打伊朗

北京日报 浏览 1294

赵丽颖新剧收视走势差,表演短板全暴露,后续没存货半年没进组

萌神木木 浏览 1068

美航母连坠两机原因引猜测

环球网资讯 浏览 1813

悲喜交加,葛优出演了一部载入史册的佳作!

幕味儿 浏览 1852

委反对派领导人把自己的诺贝尔和平奖赠予特朗普

财联社 浏览 1070
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除
Copyright © 2020-2022,版权所有 qukanredian.com
沪ICP备20002587号-1