展望2018 AI芯片领域:众多厂商追随深度学习

2018-01-26 15:14:41 至顶网  点击量: 评论 (0)
度神经网络就像远方地平线上的海啸鉴于深度神经网络(DNN)的算法和应用还在不断演变之中,所以目前我们还不清楚深度神经网络最终会带来怎...

高通公司下一代核心研发总监Karam Chatha表示:“软件总是在变化的,但是你需要尽早把硬件拿出来,因为它会影响软件——这种关系总是存在的。目前,这家移动芯片厂商正在Snapdragon片上系统的DSP和GPU内核上运行神经网络工作,但一些观察家预计,高通将为机器学习定制一个新的模块,作为2019年的7纳米Snapdragon SoC的一个组成部分。

高通公司展示了一个自定义深度神经网络加速器的研究范例,但是现在高通在通用的DSP和GPU核心上使用软件。来源:高通

Patterson表示:“市场会决定哪些芯片最好。这是很残酷的,但这正是设计计算的兴奋点所在。”

早期的玩家已经抓住了这个偶然的机会

例如,Facebook最近证明,通过大幅增加打包到所谓批量大小的功能数量,将训练时间从一天缩短到一个小时。对于试图在本地SRAM中运行所有操作的Graphcore来说,这可能是个坏消息,因为这消除了外部DRAM访问的延迟,同时也限制了内存占用。

“他们是为小批量设计的,但几个月前的软件结果表明,你需要一个大批量。这说明了事情变的话的有多么快,”Patterson说。

另一方面,Rex Computing认为他们正处于一个有利的位置。该初创公司的SoC最初是为高性能服务器设计的,使用了一种新颖的暂存器内存。联合创始人Thomas Sohmers说,Rex的方法消除了在虚拟页面表中缓存数据的需求,这是GPU使用的一种技术,增加了延迟。

因此他说,Rex芯片比现在的GPU要好得多,特别是在处理流行的矩阵/矢量运算神经网络时。Rex公司计划6月份推出256核的SoC,预计能提供256Gflops/W。

与此同时,研究人员正在尝试从32位到单浮点和整数数学的方方面面,以找到最有效的方法来计算神经网络结果。有一点似乎是他们认同的,最好不要在精确度之间来回切换。

人工智能算法还处于初期阶段

深度神经网络是几十年来人工智能领域一直进行的相对较小分支的工作。从2012年左右开始,包括Facebook公司的Yann LeCun在内的很多研究人员开始使用特定种类的深度神经网络来识别图像,并最终以比人类更高的准确度得到令人惊叹的结果。深度学习技术吸引了研究界,研究界迅速发表了不少该领域的论文,以寻求新的突破。

现在深度神经网络为Amazon Alexa、谷歌翻译、Facebook面部识别等商用服务提供动力。网络巨头们和他们的全球竞争对手,正在寻找杀手级应用的过程中竞相将这些技术应用于尽可能多的服务中。

大云网官方微信售电那点事儿
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
我要收藏
个赞