首页 > AI资讯 > 最新资讯 > 为AI计算加速,复旦团队联合张江实验室创新解决AI通信难题

为AI计算加速,复旦团队联合张江实验室创新解决AI通信难题

新火种    2025-05-02

AI工具使用时老是卡壳怎么办?复旦大学团队联合张江实验室通过创新光互连技术加速大模型计算,提升AI通信的效率。日前,相关研究成果已发表于《自然·通讯》(Nature Communications),并引起学术界与产业界的广泛关注。

语音助手、智能搜索、图像生成……人工智能(AI)正日益融入我们的日常生活,成为不可或缺的一部分。无论是通过DeepSeek进行精准检索,借助ChatGPT进行智能交互,还是依托各类AI助手优化工作效率,人工智能技术极大地提升了我们的便捷性与生产力。

但是随着AI模型规模的持续扩大,智算芯片间、算力节点间的通信带宽不足的问题愈发突出。

传统电子互连方式已难以满足GPU集群、超级计算中心和云计算平台对高速、大容量、高效能数据交换的需求。尤其是在大模型训练过程中,海量参数需要在计算节点之间频繁传输,互连带宽不足不仅降低系统响应速度,甚至可能导致宕机,严重影响计算效率与用户体验。这一“通信瓶颈”已成为智能计算发展的关键挑战。

如何突破电子传输在带宽与能耗方面的物理限制,构建以光子为信息载体的新型互连架构?

针对这一问题,复旦大学信息科学与工程学院张俊文研究员、迟楠教授与张江实验室开展合作,研究团队提出了基于多维光子复用的创新范式,实现了在时域、空域、频域的多维并行信号传输,为后摩尔时代的算力发展提供了全新物理载体。

研究团队通过精确设计和优化,将多维复用技术引入片上光互连架构,不仅显著提升了数据传输吞吐量,同时在功耗和延迟方面表现卓越,具备极强的扩展性和兼容性,适用于多种高性能计算场景。在此基础上,团队设计并研制了一款硅光集成高阶模式复用器芯片,实现了超大容量的片上光数据传输。

实验结果表明,该芯片可支持每秒38 Tb的数据传输速度,意味着未来1秒可完成大模型4.75万亿的参数传递,这显著提升了大模型训练与计算集群间的通信性能和可靠性,为人工智能、大模型训练及GPU加速计算等应用提供了强有力的支持。

这一技术突破不仅为数据中心和高性能计算服务器的光互连系统提供了新的解决方案,也为人工智能、大规模并行计算及大模型训练奠定了坚实的技术基础。

研究团队未来还将进一步优化该技术,并推动其在GPU加速计算、人工智能大模型训练、大数据处理等领域的应用落地。随着技术的不断演进,该方案有望为下一代光互连通信系统和算力网络升级提供更高效、低功耗的解决方案,助力智能计算迈向更快、更强的未来。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。