Intel携手Facebook打造首款神经网络芯片
日前,Intel 宣布要与Facebook合作,推出首款专为机器学习设计的「Nervana」神经网络处理(NNP)系列芯片,是一款专为人工智慧所设计的快速芯片,提供高效率的AI运算,预计在今年年底就能出货。
「我们很兴奋在向市场分享这款新世代AI硬体时,能跟Facebook 密切合作,共同分享技术见解。」Intel 执行长布莱恩?科再奇(Brian Krzanich)在《华尔街日报》举办的WSJDLive全球科技会议上,宣布与Facebook 合作推出首款神经网络处理系列芯片,且将在今年年底前出货,并表示Intel 有信心能够超越去年设定的目标,在2020 年时让AI 效能提高100 倍。
“在我们向市场推出新一代人工智能硬件之际,能与Facebook密切合作,共享其技术见解,我们感到激动。”科再奇在英特尔的官方博客上写道,“在华尔街日报举办的‘全球技术大会’ (WSJDLive)上,我谈到认知和人工智能(AI)技术将会给行业带来巨大转变,也为市场带来了巨大机会,到2020年,这两个领域的收入将达到460亿美元。英特尔会在硬件、数据算法和分析上进行研究和投资。”
英特尔称,Facebook将为一款针对人工智能设计的芯片提供技术输入。未来,英特尔只向包括Facebook在内的有限数量的合作伙伴提供人工智能芯片,获得反馈信息,然后明年推出第二代芯片。
科再奇认为透过“Nervana”神经网络处理器,可以为许多产业带来高效率的 AI 运算能力,他也列举了四项例子,像是在医疗保健 AI 可以让早期诊断提高精准度、增进癌症、帕金森病研究;社群媒体可以为客户提供更个人化的服务;无人车未来能在汽车产业更快实现;AI 也能帮助研究人员掌握风速、水温数据,可以有效预测飓风轨迹。
跟PC芯片不同,Nervana 神经网络处理芯片是一款特殊的集成电路,是为训练和执行深度学习演算法所打造,Intel 缩小了Nervana 神经网络芯片的电路尺寸来减少运算时的耗能,将使用可处理大量数据的「Flexpoint」格式达到「大规模双向数据传输」,意思是如果将大量的芯片连接在一起,就可成为一个巨大的虚拟芯片,能达到更大规模的深度学习模型,此架构目标,是要打造出能弹性应付深度学习的处理器,当处理高强度运算要求时,可以更有效率。
对于Facebook来说,它在2013年12月成立了人工智能实验室,并请来了机器学习大牛、纽约大学教授杨立昆(Yann LeCun)作为该实验室的负责人。但在硬件上,Facebook相对薄弱。在此之前,谷歌已经推出了针对深度神经网络的TPU,这是谷歌专为加速深层神经网络运算能力而研发的芯片,这款芯片也是AlphaGo成功的关键。这次与英特尔共同设计人工智能芯片,也算是Facebook补强硬件的一步。