NVIDIA Ampere GPU登陆Google Cloud

  • 来源:网络
  • 更新日期:2020-07-09

摘要:北京时间7月8日消息,NVIDIA A100 Tensor Core GPU现已登录Google Cloud,Google发布了搭载A100的加速器优化的VM(A2)实例系列,这也使得Google成为全球首个提供A100——

北京时间7月8日消息,NVIDIA A100 Tensor Core GPU现已登录Google Cloud,Google发布了搭载A100的加速器优化的VM(A2)实例系列,这也使得Google成为全球首个提供A100——这一最新GPU的云服务商。

自NVIDIA A100 GPU正式发布仅一个月后,该产品就已登陆Google Compute Engine(云计算引擎),推出alpha测试版本,A100成为NVIDIA历史上进入云领域最快的一款GPU。

A100基于最新推出的NVIDIA Ampere架构,实现了NVIDIA有史以来最大的性能升级。相比前代产品,其训练和推理计算的性能提升高达20倍,大幅提升了工作负载运行速度,赋能AI革命。

Google Cloud产品管理总监Manish Sainani表示:“通常客户希望我们提供最新的软硬件服务来帮助他们推动其在AI和科学计算领域的创新。正如此前率先采用NVIDIA T4 GPU一样,随着A2 VM系列的发布,我们又荣幸地成为了市场上首家提供NVIDIA A100 GPU的大型云服务供应商,我们期待这些全新的性能能够引领客户实现创新。”

在云数据中心中,A100可赋能众多计算密集型应用,包括AI训练和推理、数据分析、科学计算、基因组学、边缘视频分析、5G服务等。

基于Google Compute Engine所搭载的A100的突破性性能,对于那些快速成长的、关键行业客户将能够加速其研究。A100可加速云端各种规模的、复杂的、不可预知的工作负载,包括纵向扩展AI训练和科学计算、横向扩展推理应用、实时对话式AI。

全新A2 VM实例系列可提供多级别性能,有效提速CUDA机器学习训练和推理、数据分析以及高性能计算的工作负载。

针对大型高要求工作负载,Google Compute Engine可提供a2-megagpu-16g实例。该实例包含16个A100 GPU,配置共计640GB GPU内存和1.3TB系统内存,并全部通过NVSwitch连接,总带宽高达9.6TB/s。

针对小型工作负载,Google Compute Engine亦可提供低配版A2 VM,从而满足其特定应用的需求。

Google Cloud宣布,不久后将把NVIDIA A100的支持范围扩展到Google Kubernetes Engine、Cloud AI Platform和其他Google云服务。

新网箭头云服务器