摘要:NVIDIA 周二宣布,A100 Tensor Core图形处理单元(GPU)在发布几周后就被Google Cloud所采用,该公司隶属于 Alphabet 的子公司。 Google Compute Engine上提供了Accelerator-Optimi
NVIDIA 周二宣布,A100 Tensor Core图形处理单元(GPU)在发布几周后就被Google Cloud所采用,该公司隶属于 Alphabet 的子公司。
Google Compute Engine上提供了Accelerator-Optimized VM(A2)系列,专门用于处理一些最苛刻的应用程序,包括人工智能(AI)工作负载和高性能计算(HPC)。这使Google成为第一个提供新NVIDIA GPU的云服务提供商。
云中的AI培训
对于最苛刻的工作负载,Google Cloud将在单个VM(或虚拟机)上为用户提供多达16个GPU。云提供商还将以较小的配置提供A2 VM,以满足单个用户的计算需求。该系统将通过私人alpha程序启动,然后于今年晚些时候向公众开放。
NVIDIA在博客中表示,A100还可以为云数据中心的各种计算密集型应用程序提供支持,包括“数据分析,科学计算,基因组学,边缘视频分析,5G服务等”。
A100基于NVIDIA的新Ampere架构,代表了公司历史上性能上的“最大的飞跃”,与之前的产品相比,机器学习培训和推理计算性能均提高了20倍。该技术的早期版本需要单独的处理器来进行训练和推理。与上一代技术相比,A100的速度也提高了10倍。
Google计划在不久的将来推出对更多实例的访问,而NVIDIA A100即将在Google Kubernetes Engine,Cloud AI Platform和其他Google Cloud服务中使用。
相关文章推荐
智能手机建站的优点是什么?网站页面布局有哪些关键点? 2022-01-10
2022年中国云计算面临的问题及发展前景预测分析2021-12-28
绿色智能基础设施连接可持续未来-IDCC2021万国数据第一代Smart DC发布会议程揭晓2021-12-27
阿里云:早期未意识到Apache log4j2漏洞情况的严重性 将强化漏洞管理2021-12-27
云计算开发:Python3-replace()方法详解2021-12-27