本篇文章1237字,读完约3分钟
谷歌宣布在基于nvidia安培a100张量核心gpu的谷歌计算引擎上引入加速器优化的vm(a2)系列。A2可以在单个虚拟机中提供多达16个图形处理器,是公共云中第一个基于a100的产品。
谷歌设计了a2虚拟机系列,以提高其客户的培训和推理性能。A2拥有基于新英伟达安培架构的英伟达a-100张量核心图形处理单元。根据博文,a-100的计算性能是上一代gpu的20倍,并且配备了40 gb的高性能hbm2 gpu内存。此外,a2虚拟机还配备了多达96个英特尔cascade lake vcpu和可选的本地固态硬盘,用于需要将数据以高达100 gbps的速度传送到图形处理器和网络的工作负载。
当客户的工作负载要求更高时,a2提供一个具有16个a100 gpu的2兆gpu-16g实例,包括640 gb gpu内存、1.3 tb系统内存和通过nvswitch连接的所有组件,最大聚合带宽为9.6 TB/s。
请注意,a2还提供了更小的配置,以便客户能够满足他们对gpu计算能力的需求。客户可以选择五种配置,从一个到16个图形处理器,具有两种不同的中央处理器和网络对图形处理器的比率——由于安培的多实例组(mig)功能,每个图形处理器可以分为多达七个图形处理器实例。。
英伟达加速计算部总经理兼副总裁Ian buck在最近的公司博客中写道,gcp上a-100的可用性:
在云数据中心,a100可以支持各种计算密集型应用,包括人工智能培训和推理、数据分析、科学计算、基因组学、边缘视频分析和5g服务。
在a2系列的帮助下,虚拟机谷歌进一步扩大了预定义和定制虚拟机的产品范围,从计算到加速器优化的机器。此外,该公司将继续与其他云供应商竞争,如微软,它最近发布了一个新的通用和各种内存优化的vm Home英特尔芯片组(avx-512)和aws,它最近发布了基于其ec2 inf1实例的推理芯片。许多新的虚拟机类型是为人工智能和机器学习工作负载的客户设计的。
星座研究公司首席分析师兼副总裁说:
云领导之战主要是人工智能之战,将企业的人工智能负载吸引到每个供应商的云中。中间是nvidia等平台供应商,他们提供跨云平台和内部部署选项。因此,随着谷歌在其谷歌云中引入最新的nvidia平台,cxo可以更容易地跨内部和(谷歌)云迁移人工智能工作负载。
他还说:
随着谷歌成为排名第三的供应商,它在吸引负载方面必须更加开放和创新——这是谷歌战略的另一个例子。相比之下,更大的aws和azure战略仍将转向人工智能负载的云计算架构。Cxo必须认识到,对于大多数技术供应商来说,锁定仍然是一个理想的结果,并且需要在便利性、速度和锁定之间权衡风险。
目前,a2 vm系列处于alpha状态,客户可以通过注册申请访问权限。此外,谷歌表示,公共可用性和价格信息将于今年晚些时候发布。最后,该公司还宣布,它将为英伟达a100提供对谷歌kubernetes引擎、云ai平台等服务的支持。【techweb】
来源:搜狐微门户
标题:Google借助计算引擎A2 VMs在云中推出了首批NVIDIA Ampere A100 GPU
地址:http://www.shwmhw.com/shxw/12173.html