亚马逊网络服务公司(AWS)和英伟达™(NVIDIA®)在 AWS re:Invent 大会上宣布大幅扩展双方的战略合作。双方的合作旨在为客户提供最先进的基础设施、软件和服务,以推动人工智能的创新。
此次合作汇聚了两家公司的优势,将英伟达最新的多节点系统与下一代 GPU、CPU 和 AI 软件,以及 Nitro System 高级虚拟化、Elastic Fabric Adapter(EFA)互连和 UltraCluster 可扩展性等 AWS 技术整合在一起。
扩大合作的主要亮点包括
1、在 AWS 上推出英伟达 GH200 Grace Hopper 超级芯片:
AWS 成为首家提供采用全新多节点 NVLink 技术的 NVIDIA GH200 Grace Hopper 超级芯片的云提供商。
英伟达™(NVIDIA®)GH200 NVL32多节点平台使联合客户能够扩展到数千个GH200超级芯片,提供超级计算机级的性能。
2、在 AWS 上托管英伟达 DGX 云:
合作在 AWS 上托管人工智能训练即服务(AI-training-as-a-service)NVIDIA DGX Cloud,采用 GH200 NVL32 加速训练生成式人工智能和大型语言模型。
3、Project Ceiba 超级计算机:
与Project Ceiba合作,旨在设计世界上最快的GPU驱动的人工智能超级计算机,配备16,384个英伟达GH200超级芯片,处理能力达到65 exaflops。
4、引入新的亚马逊 EC2 实例:
AWS 推出三个新的 Amazon EC2 实例,包括由英伟达 H200 Tensor Core GPU 驱动的 P5e 实例,用于大规模生成 AI 和 HPC 工作负载。
5、软件创新:
英伟达在 AWS 上推出软件,如用于聊天机器人和摘要工具的 NeMo Retriever 微型服务,以及用于加快制药公司药物发现的 BioNeMo。
此次合作标志着双方共同致力于推动生成式人工智能领域的发展,为客户提供尖端技术和资源。
在内部,亚马逊的机器人和执行团队已经采用了英伟达™(NVIDIA®)的 Omniverse 平台,在实际部署之前首先在虚拟环境中优化仓库。
英伟达™(NVIDIA®)与 AWS 技术的整合将加速各行各业大型语言模型和生成式人工智能应用的开发、训练和推理。
上一条: 全球人工智能安全指南获得18个国家认可