八卦炉
BAGUALU
大模型训练加速系统
在GPU集群进行模型预训练
国产集群A512卡智算集群训练任务经清程整体优化,平均性能提升30%
chitu-new-1
icon
部分算子性能提升
300%
icon
全新并行方案 带来更高性能
10%
icon
分布式通信 效率提升
50%
chart
chart
chart
title
在国产超算上进行模型预训练
拓展到10万台服务器全机规模,实现百万亿参数量模型预训练加速