DeepSeek模型发布,国产算力卡迎来新机遇
2025年初,DeepSeek R1和V3模型的发布在全球AI社区引发广泛关注。这两款模型不仅在语言建模和推理能力上表现出色,还推动了国产AI算力卡的迭代和升级。多家国产技术公司和云厂商积极参与模型的适配和部署,其中海光信息的DCU产品表现尤为突出。
海光DCU:性能与生态的双重优势
海光DCU基于大规模并行计算微结构设计,具备全精度数据格式的算力,能够在大规模数据计算中提供优异的数据处理能力。其GPGPU架构和统一的底层硬件驱动平台,使得海光DCU能够适配多种API接口和编译器,并与国内多家头部互联网厂商完成全面适配。
海光DCU的关键优势:
– 高性能:支持深度学习训练、推理场景以及大模型场景。
– 生态完善:适配多种API接口和编译器,支持常见函数库。
– 广泛兼容:与国内多家头部互联网厂商完成全面适配。
DeepSeek模型与海光DCU的适配
在DeepSeek R1发布后,海光信息迅速完成了DeepSeek V3和R1模型与海光DCU的适配,并正式上线。这一适配不仅提升了模型的推理速度,还为政府及央国企等对数据安全要求高的客户提供了私有化部署的解决方案。
适配效果:
– 推理速度提升:通过优化,DeepSeek系列模型在输出吞吐率方面实现了最高达7倍的加速效果。
– 私有化部署:政府及央国企客户倾向于选择一体机形式进行私有化部署,海光信息计划联合合作伙伴推出行业一体机解决方案。
多模态支持与未来规划
SGLang推理引擎在多模态支持方面也取得了显著进展。通过与国内外顶尖的多模态技术团队合作,SGLang实现了视觉与语言处理能力的无缝集成,支持单图像、多图像以及视频任务的处理。
多模态支持的关键技术:
– 视觉API:支持纯文本输入及交错文本、图像和视频的混合输入。
– 性能提升:在VideoDetailDescriptions和LLaVA-in-the-wild数据集上,集成后的多模态模型性能最高可提升4.5倍。
投资建议与风险提示
海光信息作为国产算力领军企业,其海光CPU+DCU产品有望受益于AI算力需求的持续增长。预计公司2025-2027年营业收入分别为141.65亿元、205.81亿元和284.02亿元,归母净利润分别为30.05亿元、46.42亿元和65.39亿元。
风险提示:
– 技术研发不及预期:可能影响产品性能和市场竞争力。
– 客户开拓不及预期:可能影响收入增长。
– 市场竞争加剧:可能对市场份额和利润率产生压力。
结语
DeepSeek模型的发布为国产AI算力卡的发展提供了新的契机,海光信息凭借其高性能DCU产品和广泛的生态适配,有望在未来的AI算力市场中占据重要地位。随着多模态支持和私有化部署方案的进一步完善,国产AI生态将迎来更加繁荣的发展。