aws发布新消费模式:为短期ai负载提供更灵活的nvidia gpu资源-凯发官网首页
近日aws表示,将推出一种新消费模式,主要针对那些希望为短期ai工作负载保留云托管gpu访问路径的企业。
amazon elastic compute cloud(ec2)capacity blocks for ml目前已经全面上市,这个模式让客户可以保留对位于amazon ec2 ultracluster中的“数百个”nvidia最先进h100 tensor core gpu的访问权限,这些gpu主要面向高性能机器学习工作负载。
要访问ec2 capacity blocks,客户只需指定所需的集群大小、未来的开始日期和所需的持续时间,他们就能够确保有可靠地、可预测且不间断访问关键ai项目的gpu资源。
aws表示,ec2 capacity blocks为客户解决了很多问题。如今,最强大的人工智能工作负载(例如训练大型语言模型)往往需要大量的计算能力,而nvidia gpu被认为是用金钱可以买到的最好的硬件之一。然而,随着今年围绕生成式ai的热议,nvidia的芯片突然出现供应短缺,没有足够的芯片供应给有需要的公司。
aws表示,对于那些容量需求有波动的客户来说,gpu短缺尤其严重。由于他们不需要持续使用gpu,因此当他们确实需要这些资源时,可能会很难访问这些资源。为了解决这个问题,许多客户承诺购买较长时间的gpu容量,但在不使用时却将其闲置。ec2 capacity blocks为此类客户提供了一种更灵活的、更可预测的方式,可以在较短时间内采购gpu容量,从而为他们提供帮助。
aws首席开发者布道师channy yun将ec2 capacity blocks预订比作预订酒店房间。他在一篇博客文章中解释说:“当你在预订酒店的时候,你可以指定想要入住房间的日期和入住时长,以及你想要的床的尺寸——例如大床或特大号床。ec2 capacity blocks预定也是如此,你可以选择需要gpu实例的日期、持续时间以及预留的大小(实例数量)。在预留开始日期,你就可以访问预留的ec2 capacity blocks并启动p5实例。”
aws解释说,ec2 capacity blocks部署在ec2 ultraclusters中,并与elastic fabric adapter pt级网络互连,以确保低延迟和高吞吐量连接。正因为如此,它可以扩展到数百个gpu。客户可以提前八周预订1到64个实例的gpu集群,时间为1到14天。aws表示,这种模式非常适合ai模型的训练和微调、短期实验运行、以及应对预期的需求激增例如推出新产品的时候。
aws公司计算和网络副总裁david brown表示:“借助amazon ec2 capacity blocks,我们为企业和初创公司增加了一种新的方式,让他们能够以可预测的方式获取nvidia gpu容量,用于构建、训练和部署他们的生成式ai应用。”
aws客户现在可以使用aws management console、command line interface或者software development kit来查找和预留gpu容量,从aws美国东部(俄亥俄)区域开始,稍后将增加更多区域和本地区域。
- 2023/7/28
- 2023/7/12
- 2023/7/12