第一时间!摩尔线程MTT S5000适配阿里Qwen3.5三款新模型

神马作文网 教育资讯 3

2月26日消息,在开源大规模的Qwen3.5-397B-A17B之后,阿里宣布再次开源千问Qwen3.5最新三款中等规模模型:Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。

摩尔线程第一时间极速响应,在旗舰级AI训推一体全功能GPU MTT S5000上完成了对这三款全新模型的全方位适配。

此次高效支持,充分展示了摩尔线程MUSA生态的成熟度与完备性。

在本次Qwen3.5系列模型的适配过程中,MUSA生态赋能开发者的两大核心能力得到了有力验证:

▼原生MUSA C支持:

允许开发者直接使用MUSA C进行内核开发,大幅降低CUDA生态迁移门槛;

▼深度兼容Triton-MUSA:

开发者可使用熟悉的Triton语法编写高性能算子,并通过Triton-MUSA后端,无缝运行在摩尔线程全功能GPU上。

在底层技术层面,针对Qwen3.5多模态模型采用的混合注意力机制,摩尔线程实现了原生优化。

基于muDNN计算库和MATE开源算子库,摩尔线程为混合注意力机制中的长序列处理提供高效支撑,成功在MTT S5000上实现了该模型的高性能推理。

从GLM-5、MiniMax M2.5、Kimi K2.5到Qwen3.5系列,摩尔线程对SOTA大模型的极速适配已成常态。

MTT S5000是摩尔线程专为大模型训练、推理及高性能计算设计的全功能GPU智算卡,基于第四代MUSA架构“平湖”,原生适配PyTorch、Megatron-LM、vLLM、SGLang等主流框架。

MTT S5000单卡配备多达80GB显存,显存带宽高达1.6TB/s,对比上代MTT S4000分别提升了67%、113%,多卡间的互联带宽也有784GB/s。

它完整支持从FP8到FP64的全精度计算,而且是国内最早原生支持FP8精度的训练GPU之一,配置了硬件级FP8 Tensor Core加速单元。

单卡FP8 AI算力最高可达1000 TFLOPS,首次达到PFLOPS级别,也就是每秒1千万亿次计算,实测性能可以对标NVIDIA H100,尤其是在多模态大模型微调任务中,部分性能更是超越H100,甚至开始接近最新的Blackwell架构。

抱歉,评论功能暂时关闭!