vmware 与 nvidia 为企业开启生成式 ai 时代-凯发官网首页
 
 
  »  凯发官网首页-凯发k8官网下载  »  硬件动态  »  正文

vmware 与 nvidia 为企业开启生成式 ai 时代-凯发官网首页

2023年8月28日     来源:vmware         
关键字:    
        2023 年 8 月 28日消息 — vmware和 nvidia日前宣布扩展双方的战略凯发k8官网下载的合作伙伴关系,帮助数十万家使用 vmware 云基础架构的企业做好准备,迎接ai时代的到来。

        vmware private ai foundation with nvidia 将使企业能够自定义模型并运行各种生成式 ai 应用,如智能聊天机器人、助手、搜索和摘要等。该平台将作为全集成式凯发k8官网下载的解决方案,采用 nvidia 提供的生成式 ai 软件和加速计算,基于 vmware cloud foundation 构建,并针对 ai 进行了优化。

        vmware 首席执行官 raghu raghuram 表示:“生成式 ai 与多云可谓珠联璧合。客户的数据无处不在,遍布其数据中心、边缘、云等多处。我们将与 nvidia 一同助力企业放心地在数据附近运行生成式 ai 工作负载,并解决其在企业数据隐私、安全和控制方面的问题。”

        nvidia 创始人兼首席执行官黄仁勋表示:“世界各地的企业都在竞相将生成式 ai 整合到自身业务中。通过与 vmware 扩大合作,我们将能够为金融服务、医疗、制造等领域的数十万家客户提供其所需的全栈式软件和计算,使其能够使用基于自身数据定制的应用,充分挖掘生成式 ai 的潜力。”

全栈式计算大幅提升生成式 ai 的性能
        为更快实现业务效益,企业希望简化并提高生成式 ai 应用的开发、测试和部署效率。根据麦肯锡的预测,生成式 ai 每年可为全球经济带来多达 4.4 万亿美元的增长(1)。

        vmware private ai foundation with nvidia 将助力企业充分利用这一能力,以定制大语言模型,创建供内部使用的更加安全的私有模型,将生成式 ai 作为一项服务提供给用户,并更加安全地大规模运行推理工作负载。

        该平台计划提供的各种集成式 ai 工具,将帮助企业经济高效地运行使用其私有数据训练而成的成熟模型。这一建立在 vmware cloud foundation 和 nvidia ai enterprise 软件上的平台预计能够提供以下方面的优势:
●隐私:将通过能够保护数据隐私并确保访问安全的架构,使客户能够在任何数据所在地轻松运行 ai 服务。
●选择:从 nvidia nemo™ 到 llama 2 等,企业在构建和运行其模型的位置上,将拥有广泛的选择空间,包括领先的 oem 硬件配置以及未来的公有云和服务提供商凯发k8官网下载的解决方案。
●性能:近期的行业基准测试表明,某些用例在 nvidia 加速基础设施上运行的性能与裸机性能相当,甚至超过了裸机性能。
●数据中心规模:虚拟化环境中的 gpu 扩展优化使 ai 工作负载能够在单个虚拟机和多个节点上扩展到最多 16 颗 vgpu/gpu,从而加快生成式 ai 模型的微调和部署速度。
●更低的成本:将最大程度地利用 gpu、dpu 和 cpu 的所有计算资源以降低总体成本,并创建可在各个团队间高效共享的池化资源环境。
●加速存储:vmware vsan express storage architecture 提供性能经过优化的 nvme 存储,并支持通过 rdma 实现 gpudirect® 存储,从而无需 cpu 即可实现从存储到 gpu 的直接 i/o 传输。
●加速网络:vsphere 与 nvidia nvswitch™ 技术之间的深度集成将进一步确保多 gpu 模型的执行不会出现 gpu 间瓶颈问题。
●快速部署和价值实现时间:vsphere deep learning vm 镜像和镜像库将提供稳定的统包凯发k8官网下载的解决方案镜像,该镜像预先安装了各种框架和性能经过优化的库,可实现快速原型开发。

        该平台将采用的 nvidia nemo 是 nvidia ai enterprise(nvidia ai 平台的操作系统)中包含的端到端云原生框架,可助力企业在几乎任何地点构建、自定义和部署生成式 ai 模型。nemo 集自定义框架、护栏工具包、数据整理工具和预训练模型于一身,使企业能够以一种简单、经济且快速的方式来采用生成式 ai。

        为将生成式 ai 部署到生产中,nemo 使用 tensorrt for large language models(trt-llm),以加速并优化 nvidia gpu 上最新 llm 的推理性能。通过 nemo,vmware private ai foundation with nvidia 将使企业能够导入自己的数据,并在 vmware 混合云基础架构上构建和运行自定义生成式 ai 模型。

        在 vmware explore 2023 大会上,nvidia 与 vmware 重点介绍了企业内部的开发人员如何使用全新 nvidia ai workbench 提取社区模型(例如 hugging face 上提供的 llama 2),对这些模型进行远程自定义并在 vmware 环境中部署生产级生成式 ai。

        生态圈对 vmware private ai foundation with nvidia 的广泛支持
vmware private ai foundation with nvidia 将得到戴尔、慧与和联想的支持。这三家企业将率先提供搭载 nvidia l40s gpu、nvidia bluefield®-3 dpu 和 nvidia connectx®-7 智能网卡的系统,这些系统将加速企业 llm 定制和推理工作负载。

        相较于 nvidia a100 tensor core gpu,nvidia l40s gpu 可将生成式 ai 的推理性能和训练性能分别提高 1.2 倍和 1.7 倍。

        nvidia bluefield-3 dpu 可加速、卸载和隔离 gpu 或 cpu 上的巨大计算工作负载,其中包含虚拟化、网络、存储、安全,以及其他云原生 ai 服务。

        nvidia connectx-7 智能网卡可为数据中心基础设施提供智能、加速网络,以承载全球一些要求严苛的 ai 工作负载。

        vmware private ai foundation with nvidia 建立在两家公司长达十年的合作基础之上。双方的联合研发成果优化了 vmware 的云基础架构,使其能够以媲美裸机的性能运行nvidia ai enterprise。vmware cloud foundation 所提供的资源及基础架构管理与灵活性将进一步惠及双方共同的客户。  
责任编辑:
e-works
官方微信
掌上
信息化
排行榜
编辑推荐
文章推荐
博客推荐
视频推荐
2023/7/28
2023/7/12
2023/7/12
网站地图