@honglyua
honglyua 暂无简介
ix GPU Operator用来帮助用户在Kubernetes集群配置和管理天数智芯GPGPU加速卡。
随着模型规模的扩大,如何在保持高性能的同时优化资源消耗成为一个关键挑战。为了应对这一挑战,我们研究了混合专家(MoE)模型,当前亮相的Hunyuan-Large(Hunyuan-MoE-A50B)模型,这是目前业界待开源的基于Transformer的最大MoE模型,拥有3890亿总参数和520亿激活参数。
cu-bridge 尝试成为GPU程序员使用一种编程语言进行开发、并且可运行在多种GPU硬件平台的解决方案。
本仓库为“源译识/Contransus”公益翻译项目中的开源许可证翻译板块。本板块已搬迁至新仓库,我们非常欢迎您持续贡献!
收集、整理、记录和开源相关的基础理论知识