本篇文章1718字,读完约4分钟
一位谷歌工程经理呼吁建立一种新的人工智能架构,包括一种保护数据隐私的分布式方法。在他的演讲之后,在国际固态电路会议上,超过六篇学术论文描述了机器学习的新方法。
几篇isscc论文将计算和存储结合起来,这是一个长期追求的研究理念。有些人认为机器学习最终会带来广泛的商业应用。就谷歌而言,该公司正在探索一种混合方法,允许终端用户保留他们的数据,并且只将神经网络权重发送到云中的参数服务器进行处理。
最终,谷歌及其同行需要在计算能力上取得重大突破,以实现其数据中心人工智能的前景。Olivier temam是这家搜索巨头的一个未指明的人工智能项目的经理。temam说,机器学习支持的谷歌图像搜索每秒需要110亿次操作来完成一个周期的任务
Temam呼吁采用分布式方法,这样边缘设备和云服务就可以合作训练神经网络。该设备使用原始数据在本地进行一些训练,然后将其作为语义数据变化或神经网络权重发送到云中,其中神经网络模型将被进一步训练和改进。
特拉姆说:出于非常容易理解的原因,人们或公司不想将他们的数据发送到云中,所以我们已经表明我们可以创建一个联合学习模型。
一位观察家指出,这种方法可能会吸引黑客试图从语义数据中推断出原始数据。
谷歌呼吁边缘设备和云服务在神经网络培训方面进行合作
谷歌同意在这里向数百名芯片设计师发表演讲,希望能为更强大的人工智能加速器产生新的想法。设计这种芯片的挑战之一是处理器和神经网络所需的大量内存之间的瓶颈。
搜索巨头所需的内存带宽在100tb/秒的范围内。Temam表示,如今的高带宽存储器堆栈要慢两个数量级,而sram太贵,消耗大量电能。
一些学者描述了将计算嵌入内存的方法。由于各种特殊存储器的兴起,包括存储电阻、随机存取存储器等。、以及受大脑启发的计算机设计的影响,大脑有时使用大容量存储器或模拟阵列,这一领域目前非常流行。
2016年,麻省理工学院副教授薇薇恩·斯泽(Vivienne sze)合著了一篇关于eyeriss架构的论文,可以解决这个问题。薇薇恩·斯泽说:我们发现神经网络的大部分能量都花在了数据移动上。她说:你需要管理大量的数据和权重,所以数据移动比计算消耗更多的能量。
她在麻省理工学院的团队正在研究的灵活架构可以运行越来越多种神经网络,包括许多开始出现的简化。他们还在探索在机器人和无人机相机等应用中,每单位功率可以实现多少神经网络加速。
谷歌的Temam表示,只要实用且便宜,公司就能接受所有新想法。Temam表示:我们希望不断降低成本,以便能够进行更大规模的部署,最终实现最佳性能。
以下几页简要介绍了六篇isscc关于人工智能加速器的论文。这些论文大多旨在减少推理工作的能量消耗,有些支持一些训练工作。
使用tsv和电感耦合来堆叠sram
日本两所大学的Quest处理器使用过孔和电感耦合将96 mb sram堆叠成八层。此外,它的24个内核都有自己专用的4mb sram高速缓存。
韩国将美国有线电视新闻网和无线网络从1位数加速到16位数
Kaist的研究人员设计了一个1-16位分辨率的卷积和递归网络加速器。它使用平衡函数加载器(afl),最大限度地减少了对片外存储器访问的需求。
神经网络分类器采用sram阵列
斯坦福大学和imec的研究人员描述了一个28纳米的分类器,它包含了芯片上所有必要的记忆。它能以中等精度处理任务,每任务能耗为3.79微焦点,这部分是由于卷积网络使用了约束二进制网络算法。
Srams存储权重,而ADC负责计算权重
麻省理工学院的研究人员将神经网络权重存储在sram阵列中,以消除外部存储器的功耗读取操作。每个阵列上的模数转换器计算部分卷积。
低功耗阵列处理推理、训练
伊利诺伊大学的记忆分类器已经达到42皮焦/决策。它的sram阵列有推理和训练模式。
碳纳米管遇到电阻式随机存取存储器
来自伯克利、麻省理工学院和斯坦福大学的一组高级研究人员已经尽了最大努力,通过使用整个3d工艺,基于1952年的碳纳米管fet和224个电阻ram单元创造了一种新器件。这种所谓的超维计算纳米系统在处理语言翻译任务时的准确率达到了98%。
;编辑人:科技沃克>
来源:搜狐微门户
标题:来自ISSCC的七个关于人工智能的新想法
地址:http://www.shwmhw.com/shxw/42274.html