本篇文章1595字,读完约4分钟

在人工智能领域,训练一个先进的机器学习模型需要大量的计算资源。随着机器学习算法在各个领域的应用越来越多,性能越来越优越,对机器学习算法专用硬件的需求也越来越强烈。

2016年,谷歌首次宣布了tpu专门开发的芯片,用于加速深层神经网络的计算能力。在计算性能和能耗指标方面,TPU远远优于传统的cpu和gpu的结合。(我们上个月还发表了一篇文章,分析了tpu辉煌成就背后的原因)

在5月19日凌晨举行的谷歌i/o 2017大会上,谷歌正式发布了第二代tpu。与第一代产品相比,新芯片在性能、应用和服务方面再次实现了突破。

一.业绩

新一代tpu可以应用于高性能计算和浮点计算。最高浮点运算性能可达每秒180万亿次。相比之下,NVIDIA上周刚刚推出的gpu tesla2 v100每秒只能实现120万亿次浮点运算。

与第一代相比,第二代有更高的起点,开发团队可以集中更多的资源来提高tpu的性能。相信通过硬件和软件的优化,后续的第三代和第四代很有可能在性能上不断取得突破。

第二,应用

第一代tpu没有具体提到组合应用和集群应用的功能,也没有存储空.在新闻发布会上,第二代直接展示了包含64个第二代tpu芯片的tpu POD计算阵列。这种计算阵列最多可以为单个ml训练任务提供每秒11.5的浮点计算能力,大大加快了机器学习模型的训练速度。

一些专业媒体还提到,新tpu在左侧和右侧有四个外部接口,在左侧有两个附加接口。将来,这些接口可能允许tpu芯片直接连接到存储器或直接连接到高速网络,从而实现更复杂的操作。理论上,开发人员也可以在此基础上设计更多的功能和添加更多的扩展。

第三,服务

从云tpu的命名中,我们可以直观地知道新一代的tpu将加入谷歌云计算平台,向外界提供云服务。这意味着tpu不再仅仅是谷歌内部的独家服务,而是将成为任何人都可以轻松分享和应用的人工产物。

在这里我们可以看到谷歌是一个小偷。当第一代出现的时候,它隐藏了一些东西,特别低调的说它只打算在内部使用。在被第二代开发出来后,它将直接进入云端:硬件不会被出售给外界,但服务将是可以的。

如果是直接硬件销售,很多中小型公司(比如我们公司:Wizard Site)可能会更喜欢选择gpu,GPU的应用范围更广,可以根据需要安排和处理不同的任务。承担大量ml任务的大公司(如阿里、facebook)会考虑收购tpu,甚至出于资金和效率的考虑而成立自己的研发团队(例如,这次谷歌自己做了tpu,facebook也有独立的研发数据中心)。硬件设备报告);

每秒 180 万亿次,谷歌新一代 TPU 三大变化值得关注

如果我们向外界销售服务,首先应该激活中小企业的需求市场,用户只需要按照使用时间付费,这样就可以节约成本。此外,大企业的资源利用率也有了很大提高,这就稀释了成本。例如,阿里可以在业余时间提供云计算服务,以应对为双十一准备的大规模服务器。最后,它避免了与硬件制造商(如英伟达)的直接利益冲突。

四.摘要

总的来说,tpu,尤其是云tpu,已经使大型互联网公司能够验证独立研发硬件的可行性。

就性能而言,它针对独立服务进行了优化,节省了硬件采购、数据中心建设和时间消耗等成本;在应用上,可与现有设施设备灵活组合和扩展;在服务方面,我们可以通过云实现资源的外部销售并赚取收入。

相应地,根据企业的不同业务,未来可能出现的定制硬件设备也会有所不同。例如用于在线交易数据处理的辅助动力装置?在线社交的Fpu?

至于如何评价云tpu,这或许标志着人工智能专业硬件时代的到来。

版权声明:本文由智慧西塔数据编辑整理,Leifeng.com(公开号:Leifeng.com)被授权转载。

开发者特别会议|英伟达深度学习学院现场授课

英伟达dli高级工程师现场指导,理论联系实际,深入学习!

课程链接:mooc.ai/course/90

雷锋文章版权所有。严禁擅自转载。详情请参考转载说明。

来源:搜狐微门户

标题:每秒 180 万亿次,谷歌新一代 TPU 三大变化值得关注

地址:http://www.shwmhw.com/shxw/62136.html