• 正文
  • 相关推荐
申请入驻 产业图谱

登顶!中国在全球光计算竞赛中实现关键领跑

12/24 13:29
407
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

12月19日,上海交通大学集成电路学院助理教授陈一彤课题组的研究成果登上国际顶级期刊《科学》杂志。他们成功研发出全球首款支持大规模语义生成模型的全光计算芯片LightGen,在实测中实现了相比顶尖数字芯片两个数量级的算力和能效提升,为下一代AI计算架构开辟了全新的技术路径。

 当AI遇见物理极限

全球AI算力需求正在经历前所未有的爆炸式增长。根据斯坦福大学《2023年人工智能指数报告》,自2012年以来,尖端AI训练所需的计算量每3.4个月翻一番,这一速度远超摩尔定律所描述的传统芯片性能提升周期。

与此同时,传统电子芯片正面临三重物理极限的严峻挑战。首先是“功耗墙”——随着晶体管密度逼近物理极限,芯片散热问题日益严峻;其次是“内存墙”——数据在处理器存储器之间的搬运能耗已远超计算本身;第三是“频率墙”——时钟频率提升空间几乎耗尽,单核性能增长陷入停滞。

生成式AI的普及使这一矛盾更加尖锐。一次ChatGPT对话的算力消耗相当于传统网页搜索的数万倍,而训练GPT-4等大型模型所需的电力足以供应数万家庭一年的用电。“我们正在用指数级增长的能耗,换取线性增长的智能,”陈一彤教授在论文中写道,“这种模式不可持续。”

正是在这样的背景下,光计算——这一曾被束之高阁的前沿技术重新进入科学家视野。与电子相比,光子具有零质量、无电荷、传播速度快、抗干扰能力强等先天优势,更重要的是,多个光信号可以在同一介质中并行传输而互不干扰,这为突破冯·诺依曼架构的串行瓶颈提供了物理基础

三重突破:光芯片的技术革命

此前,全球范围内的光计算研究大多停留在理论探索和小规模验证阶段。大多数光芯片只能执行简单的分类或识别任务,一旦涉及生成式AI所需的复杂语义理解和内容创造,传统光计算架构便显得力不从心

陈一彤课题组此次实现的突破,在于同时攻克了三个长期困扰光计算发展的核心难题。

第一项突破是“单片百万级光学神经元集成”。研究团队创新性地提出了一种基于硅基光子集成的多维复用技术,在指甲盖大小的芯片面积上实现了超过100万个可独立调控的光学神经元。这一集成密度达到了业界此前最好水平的10倍以上,为处理大规模生成模型提供了必要的硬件基础。

第二项突破在于“全光维度转换”。传统光计算芯片在执行复杂算法时,往往需要在光信号和电信号之间反复转换,这种“光电混合”模式严重拖累了计算速度和能效。LightGen芯片首次实现了从数据输入到结果输出的完整光路计算,彻底摒弃了效率低下的光电转换环节

最具创新性的是第三项突破——“不依赖真值的光学生成模型训练算法”。研究团队开发了一套完全适配光计算特性的新型训练框架,允许生成模型在光学芯片上直接完成训练和推理。陈一彤解释道:“这就像为光学芯片量身定制了一套‘思维方法’,让它能够理解并创造复杂的语义内容。”

在严格测试中,即便采用性能相对滞后的输入设备,LightGen芯片在处理文本生成、图像创作等任务时,仍能实现相比英伟达A100芯片200倍的能效提升和150倍的计算速度提升。这一数据不仅验证了光计算的理论优势,更展现了其解决实际AI问题的巨大潜力。

在AI向通用人工智能演进的历史关口,计算架构的创新比以往任何时候都更加紧迫。上海交通大学LightGen芯片的突破,不仅证明了光计算处理复杂智能任务的可行性,更重要的是,它为人类突破算力困境提供了一种基于物理本质的新思路

来源:网络综合报道

相关推荐

登录即可解锁
  • 海量技术文章
  • 设计资源下载
  • 产业链客户资源
  • 写文章/发需求
立即登录