摘要: 北京时间7月8日消息,NVIDIA A100 Tensor Core GPU现已登录Google Cloud,Google发布了搭载A100的加速器优化的VM(A2)实例系列,这也使得Google成为全球首个提供A100——这一
北京时间7月8日消息,NVIDIA A100 Tensor Core GPU现已登录Google Cloud,Google发布了搭载A100的加速器优化的VM(A2)实例系列,这也使得Google成为全球首个提供A100——这一最新GPU的云服务商。
NVIDIA Ampere GPU登陆Google Cloud
自NVIDIA A100 GPU正式发布仅一个月后,该产品就已登陆Google Compute Engine(云计算引擎),推出alpha测试版本,A100成为NVIDIA历史上进入云领域最快的一款GPU。
A100基于最新推出的NVIDIA Ampere架构,实现了NVIDIA有史以来最大的性能升级。相比前代产品,其训练和推理计算的性能提升高达20倍,大幅提升了工作负载运行速度,赋能AI革命。
Google Cloud产品管理总监Manish Sainani表示:“通常客户希望我们提供最新的软硬件服务来帮助他们推动其在AI和科学计算领域的创新。正如此前率先采用NVIDIA T4 GPU一样,随着A2 VM系列的发布,我们又荣幸地成为了市场上首家提供NVIDIA A100 GPU的大型云服务供应商,我们期待这些全新的性能能够引领客户实现创新。”
在云数据中心中,A100可赋能众多计算密集型应用,包括AI训练和推理、数据分析、科学计算、基因组学、边缘视频分析、5G服务等。
基于Google Compute Engine所搭载的A100的突破性性能,对于那些快速成长的、关键行业客户将能够加速其研究。A100可加速云端各种规模的、复杂的、不可预知的工作负载,包括纵向扩展AI训练和科学计算、横向扩展推理应用、实时对话式AI。
云端A100为各种规模的工作负载提速
全新A2 VM实例系列可提供多级别性能,有效提速CUDA机器学习训练和推理、数据分析以及高性能计算的工作负载。
针对大型高要求工作负载,Google Compute Engine可提供a2-megagpu-16g实例。该实例包含16个A100 GPU,配置共计640GB GPU内存和1.3TB系统内存,并全部通过NVSwitch连接,总带宽高达9.6TB/s。
针对小型工作负载,Google Compute Engine亦可提供低配版A2 VM,从而满足其特定应用的需求。
Google Cloud宣布,不久后将把NVIDIA A100的支持范围扩展到Google Kubernetes Engine、Cloud AI Platform和其他Google云服务。
相关文章推荐
智能手机建站的优点是什么?网站页面布局有哪些关键点? 2022-01-10
2022年中国云计算面临的问题及发展前景预测分析2021-12-28
绿色智能基础设施连接可持续未来-IDCC2021万国数据第一代Smart DC发布会议程揭晓2021-12-27
阿里云:早期未意识到Apache log4j2漏洞情况的严重性 将强化漏洞管理2021-12-27
云计算开发:Python3-replace()方法详解2021-12-27