研究人员希望采用所谓的多路复用方案,以便执行更多计算并扩大MAFT-ONN的规模。
随着越来越多的联网设备需要越来越多的带宽来完成远程办公和云计算等任务,管理所有用户共享的有限无线频谱将变得极具挑战性。
工程师们正在利用人工智能来动态管理可用的无线频谱,以期减少延迟并提升性能。但大多数用于分类和处理无线信号的人工智能方法都耗电严重,而且无法实时运行。
现在,麻省理工学院的研究人员开发了一种专为无线信号处理而设计的新型人工智能硬件加速器。他们的光学处理器能够以光速执行机器学习计算,在纳秒级时间内对无线信号进行分类。
该光子芯片的速度比最佳数字方案快约100倍,同时信号分类的收敛准确率达到约95%。新型硬件加速器还具有可扩展性和灵活性,因此可用于各种高性能计算应用。同时,它比数字AI硬件加速器更小、更轻、更便宜、更节能。
该设备在未来的 6G 无线应用中尤其有用,例如通过使无线调制格式适应不断变化的无线环境来优化数据速率的认知无线电。
通过使边缘设备能够实时执行深度学习计算,这款新型硬件加速器可以为信号处理以外的许多应用提供显著的加速。例如,它可以帮助自动驾驶汽车对环境变化做出瞬间反应,或使智能起搏器能够持续监测患者的心脏健康状况。
“许多应用可以通过能够分析无线信号的边缘设备来实现。我们在论文中提出的内容可能为实时可靠的人工智能推理开辟许多可能性。这项工作只是一项可能产生巨大影响的开端。”麻省理工学院电气工程与计算机科学系教授、量子光子学与人工智能小组和电子研究实验室 (RLE) 首席研究员、该论文的资深作者 Dirk Englund 说道。
与他共同参与论文撰写的还有:第一作者罗纳德Davis三世(Ronald Davis III),24届博士生;前麻省理工学院博士后、现任南加州大学助理教授的陈在军(Zaijun Chen);以及RLE客座科学家、NTT Research高级科学家瑞安哈默利(Ryan Hamerly)。这项研究发表在《科学进展》(Science Advances)杂志上。
光速处理
用于无线信号处理的先进数字 AI 加速器将信号转换为图像,并通过深度学习模型进行分类。虽然这种方法非常准确,但深度神经网络的计算密集型特性使其不适用于许多时间敏感的应用。
光学系统可以通过利用光来编码和处理数据,从而加速深度神经网络,而且其能耗也比数字计算更低。然而,研究人员一直在努力最大限度地提高通用光学神经网络在信号处理中的性能,同时确保光学设备的可扩展性。
通过开发一种专门用于信号处理的光学神经网络架构,研究人员将其称为乘法模拟频率变换光学神经网络(MAFT-ONN),正面解决了这个问题。
MAFT-ONN 通过对所有信号数据进行编码并在无线信号数字化之前在所谓的频域内执行所有机器学习操作来解决可扩展性问题。
研究人员设计的光学神经网络能够同时执行所有线性和非线性运算。深度学习需要这两种类型的运算。
由于这种创新设计,整个光学神经网络每层只需要一个 MAFT-ONN 设备,而其他方法则需要为每个单独的计算单元或“神经元”配备一个设备。
Davis说:“我们可以将 10,000 个神经元安装到单个设备上,并一次性计算出必要的乘法。”
研究人员利用一种名为光电倍增的技术实现了这一目标,该技术显著提高了效率。此外,该技术还能帮助他们构建一个光学神经网络,该网络可以轻松扩展,无需额外开销,并增加额外的层数。
以纳秒为单位的结果
MAFT-ONN 以无线信号作为输入,处理信号数据,并将信息传递给边缘设备执行后续操作。例如,通过对信号的调制进行分类,MAFT-ONN 可以使设备自动推断信号类型以提取其携带的数据。
研究人员在设计 MAFT-ONN 时面临的最大挑战之一是确定如何将机器学习计算映射到光学硬件。
“我们不能直接使用现成的普通机器学习框架。我们必须对其进行定制,使其适应硬件,并弄清楚如何利用物理原理,以便它能够执行我们想要的计算,”Davis说。
当他们在模拟中测试其架构的信号分类时,光学神经网络单次即可达到 85% 的准确率,并通过多次测量快速收敛到 99% 以上的准确率。MAFT-ONN 仅需约 120 纳秒即可完成整个过程。
“测量时间越长,精度就越高。由于 MAFT-ONN 以纳秒为单位计算推理,因此无需牺牲太多速度即可获得更高的精度。”Davis补充道。
虽然最先进的数字射频设备可以在微秒内完成机器学习推理,但光学设备可以在纳秒甚至皮秒内完成。
展望未来,研究人员希望采用所谓的多路复用方案,以便执行更多计算并扩大 MAFT-ONN 的规模。他们还希望将这项工作扩展到更复杂的深度学习架构,以运行 Transformer 模型或 LLM。
这项工作的部分资金来自美国陆军研究实验室、美国空军、麻省理工学院林肯实验室、日本电报电话公司和国家科学基金会。