侵权投诉
订阅
纠错
加入自媒体

MIT研发光学深度神经网络:几乎不需能耗

2017-06-14 10:42
seele_jin
关注

深度学习计算机系统是基于人工神经网络(Artificial Neural Networks)模仿人脑学习方法的一种系统,现已成为计算机科学领域的热门话题。深度学习不仅助力了面部和声音识别软件的发展,还为医疗领域带去了大量数据辅助诊断。

但这些系统需要执行的计算是非常复杂和严格的,即使是对配置最强的计算机来说,计算仍然是个不小的挑战。

目前,研发人员已经研发出一种新型的计算方式——他们用光子代替电子作为信息输送介质,极大提高了某些深度学习中计算的速度和效率。这项成果由11个人共同完成,有来自MIT的博士后Yichen Shen,研究生Nicholas Harris,教授Marin Soljacic和Dirk Englund和来自其他地方的研究人员。目前,他们的论文成果已经刊登在《 Nature Photonics》期刊上。

教授Soljacic表示,光学计算机已经被很多研究人员鼓吹了很多年了,就是因为人们过度宣扬,才导致如今好像看起来有点让人失望,感觉事与愿违。虽然有很多人提倡使用光学计算机,但研究成果并不实用。这个团队研究的光神经网络系统能应用到很多程序上。

传统计算机的架构在处理某些重要神经网络任务所需计算时并不是很有效。这样的任务通常涉及重复的矩阵乘法,需要在CPU和GPU上进行密集的计算。

经过多年研究,这个MIT提出了一种相反的方式执行这种操作。“一旦你调试好这个芯片,它就能运行矩阵乘法。原则上讲它几乎不需要能量,”Soljacic说,“我们已经演示了关键模块,但还没有全部公布。”

Soljacic用类比的方式解释了新系统的原理。即使是普通的眼镜片,也会在经过它的光波上进行复杂的计算(也就是所谓的傅立叶变换)。光束在新光子芯片中进行计算的方式式与其基本原理相似。这种新方法使用多个光束传播,它们的波会相互作用,产生干扰模式,从而传达出预期的操作的结果。研究人员称这种设备为可编程的纳米光子处理器。

据Yichen Shen描述,使用这种架构的光学芯片,原则上可以在传统人工智能算法中进行运算,比传统的电子芯片要快得多,但使用的能量还不及千分之一。他说:“用光运行矩阵乘法计算的天然优势就是,它在加速和省电方面起重要作用,因为密集的矩阵乘法是AI算法中最耗电和耗时的那部分。”

这个新型可编程纳米光子处理器,是由Harris和合作人员在Englund实验室共同开发的。它使用了一系列的波导管(传输微波波段的电磁波装置),这些波导管相互连接,可以根据需要进行修改,为特定的计算编程。“你可以在任何矩阵运算中编程。”Harris说。处理器通过一系列耦合光子波导来引导光线。他们要求设备的交错层应用非线性激活函数,与大脑神经元的操作进行类比。

为了演示这一概念,研究小组设置了可编程的纳米光子处理器来实现一个能够识别四种基本元音的神经网络。即使有了这个基本的系统,他们也能达到77%的准确率,传统系统的准确率为90%。Soljacic说,增强系统的准确性并没有“实质性的障碍”。

Englund补充说,可编程的纳米光子处理器也有其他应用,包括数据传输的信号处理。“高速模拟信号处理比其他将信号转化为数字形式的处理方法更快,因为光是一种天然的模拟介质,”他说,“这种方法能在模拟域中直接处理。”

该团队称,他们还需要更多的努力和时间使系统变得更实用。一旦这个系统性能提升且功能完备,就能找到许多用户案例,比如数据中心或安全系统。Harris说,这种系统也可以为无人驾驶汽车或无人机带来好处,适用于“需要做大量计算,但你没有太多的力量和时间”的情况。

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号