登录
注册
开源
企业版
高校版
搜索
帮助中心
使用条款
关于我们
开源
企业版
高校版
私有云
模力方舟
AI 队友
登录
注册
Gitee 2025 年度开源项目评选中
代码拉取完成,页面将自动刷新
开源项目
>
人工智能
>
推理框架
&&
捐赠
捐赠前请先登录
取消
前往登录
扫描微信二维码支付
取消
支付完成
支付提示
将跳转至支付宝完成支付
确定
取消
Watch
不关注
关注所有动态
仅关注版本发行动态
关注但不提醒动态
66
Star
162
Fork
147
MindSpore
/
vllm-mindspore
代码
Issues
52
Pull Requests
120
Wiki
统计
流水线
服务
质量分析
Jenkins for Gitee
腾讯云托管
腾讯云 Serverless
悬镜安全
阿里云 SAE
Codeblitz
SBOM
我知道了,不再自动展开
更新失败,请稍后重试!
移除标识
内容风险标识
本任务被
标识为内容中包含有代码安全 Bug 、隐私泄露等敏感信息,仓库外成员不可访问
[Feature]: vLLM-MindSpore Plugin支持MiniCPM4模型
TODO
#ID9Y7T
panshaowu
成员
创建于
2025-12-01 21:15
### 🚀 背景描述|Background MiniCPM4 系列是专为终端设备设计的高度高效的大语言模型 (LLMs),通过在四个关键维度上的系统性创新实现了这一效率:模型架构、训练数据、训练算法和推理系统。 🏗️ 高效的模型架构: - InfLLM v2 -- 可训练的稀疏注意力机制:采用可训练的稀疏注意力机制架构,每个标记只需要计算与128K长文本中不到5%的标记的相关性,显著降低了长文本处理的计算开销 🧠 高效的算法:模型风洞2.0 -- 高效的可预测扩展:引入了对下游任务性能的扩展预测方法,使模型训练配置搜索更加精确 - BitCPM -- 极限三值量化:将模型参数位宽压缩到3个值,实现了90%的极端模型位宽减少 - 高效的训练工程优化:采用FP8低精度计算技术结合多标记预测训练策略 📚 高质量的训练数据: - UltraClean -- 高质量的预训练数据过滤和生成:基于高效的数据验证构建迭代数据清洗策略,开源高质量的中文和英文预训练数据集 UltraFinweb - UltraChat v2 -- 高质量的监督微调数据生成:构建大规模高质量的监督微调数据集,覆盖知识密集型数据、推理密集型数据、指令跟随数据、长文本理解数据和工具调用数据等多个维度 ⚡ 高效的推理系统: - CPM.cu -- 轻量级高效的CUDA推理框架:集成稀疏注意力、模型量化和推测采样技术,实现高效的填充和解码 - ArkInfer -- 跨平台部署系统:支持在多个后端环境中的高效部署,提供灵活的跨平台适应能力 本需求期望vllm-mindspore插件支持包括以下模型在内的MiniCPM4系列模型。 - MiniCPM4-8B: MiniCPM4 的旗舰模型,具有 80 亿参数,在 8T tokens 上训练。 - MiniCPM4-0.5B: MiniCPM4 的小型版本,具有 0.5B 参数,在 1T tokens 上训练。 - MiniCPM4 的最新版本,拥有 8B 参数,支持融合思维。 ### 特性设计|Feature design 参考Qwen3模型,在vllm-mindspore native模型中,仿照vLLM模型风格(minicpm.py)实现MiniCPM4系列模型。 ### 涉及到的对外API|External API changes involved ### 与其他模块的相关性描述|Relation with other modules ### 测试设计与测试计划|Test design and plan 质量等级:beta 相关接口:兼容vLLM原生接口 交付时间:待需求接纳后确定 ### 其他信息|Other information
### 🚀 背景描述|Background MiniCPM4 系列是专为终端设备设计的高度高效的大语言模型 (LLMs),通过在四个关键维度上的系统性创新实现了这一效率:模型架构、训练数据、训练算法和推理系统。 🏗️ 高效的模型架构: - InfLLM v2 -- 可训练的稀疏注意力机制:采用可训练的稀疏注意力机制架构,每个标记只需要计算与128K长文本中不到5%的标记的相关性,显著降低了长文本处理的计算开销 🧠 高效的算法:模型风洞2.0 -- 高效的可预测扩展:引入了对下游任务性能的扩展预测方法,使模型训练配置搜索更加精确 - BitCPM -- 极限三值量化:将模型参数位宽压缩到3个值,实现了90%的极端模型位宽减少 - 高效的训练工程优化:采用FP8低精度计算技术结合多标记预测训练策略 📚 高质量的训练数据: - UltraClean -- 高质量的预训练数据过滤和生成:基于高效的数据验证构建迭代数据清洗策略,开源高质量的中文和英文预训练数据集 UltraFinweb - UltraChat v2 -- 高质量的监督微调数据生成:构建大规模高质量的监督微调数据集,覆盖知识密集型数据、推理密集型数据、指令跟随数据、长文本理解数据和工具调用数据等多个维度 ⚡ 高效的推理系统: - CPM.cu -- 轻量级高效的CUDA推理框架:集成稀疏注意力、模型量化和推测采样技术,实现高效的填充和解码 - ArkInfer -- 跨平台部署系统:支持在多个后端环境中的高效部署,提供灵活的跨平台适应能力 本需求期望vllm-mindspore插件支持包括以下模型在内的MiniCPM4系列模型。 - MiniCPM4-8B: MiniCPM4 的旗舰模型,具有 80 亿参数,在 8T tokens 上训练。 - MiniCPM4-0.5B: MiniCPM4 的小型版本,具有 0.5B 参数,在 1T tokens 上训练。 - MiniCPM4 的最新版本,拥有 8B 参数,支持融合思维。 ### 特性设计|Feature design 参考Qwen3模型,在vllm-mindspore native模型中,仿照vLLM模型风格(minicpm.py)实现MiniCPM4系列模型。 ### 涉及到的对外API|External API changes involved ### 与其他模块的相关性描述|Relation with other modules ### 测试设计与测试计划|Test design and plan 质量等级:beta 相关接口:兼容vLLM原生接口 交付时间:待需求接纳后确定 ### 其他信息|Other information
评论 (
0
)
登录
后才可以发表评论
状态
TODO
TODO
ACCEPTED
WIP
VALIDATION
DONE
CLOSED
REJECTED
负责人
未设置
标签
feature
未设置
项目
未立项任务
未立项任务
里程碑
vLLM-MindSpore Plugin 0.5.0
未关联里程碑
Pull Requests
未关联
未关联
关联的 Pull Requests 被合并后可能会关闭此 issue
分支
未关联
分支 (36)
标签 (3)
master
r0.5.0
ms_inferrt
hybrid-v2
r0.4.1
r0.4.1_ms_2.8.0_joint_test
br_infer_boom_1115
qwen3_omni_dev
v0.10.2
r0.4.0
revert-merge-1161-r0.4.0
develop
revert-merge-1133-ms_inferrt
model-external
revert-merge-1067-ms_inferrt
beam-search-dev
br_infer_boom
br_feature_glm4v
r0.3.0
r0.3.0.rc1
master_qwen3_next
refactor-hybrid
r0.3.0_qwen3_next
duo-dev
0.9.1-dev
0.8.3-develop-bak
develop-refactor
pangu-pro-moe-bak
pangu-pro-moe
cpp-dev
duo-qwq-dev
r0.2
v0.8.3-dev
r0.1_opt
r0.1
r0.1.1
v0.4.0
ms_inferrt_v0.1.0
v0.3.0
开始日期   -   截止日期
-
置顶选项
不置顶
置顶等级:高
置顶等级:中
置顶等级:低
优先级
不指定
严重
主要
次要
不重要
预计工期
(小时)
参与者(1)
Python
1
https://gitee.com/mindspore/vllm-mindspore.git
git@gitee.com:mindspore/vllm-mindspore.git
mindspore
vllm-mindspore
vllm-mindspore
点此查找更多帮助
搜索帮助
Git 命令在线学习
如何在 Gitee 导入 GitHub 仓库
Git 仓库基础操作
企业版和社区版功能对比
SSH 公钥设置
如何处理代码冲突
仓库体积过大,如何减小?
如何找回被删除的仓库数据
Gitee 产品配额说明
GitHub仓库快速导入Gitee及同步更新
什么是 Release(发行版)
将 PHP 项目自动发布到 packagist.org
评论
仓库举报
回到顶部
登录提示
该操作需登录 Gitee 帐号,请先登录后再操作。
立即登录
没有帐号,去注册