生成式ai的浪潮席卷各行各业,企业纷纷拥抱生成式ai,但是要支撑生成式ai,企业在基础设施层面需要进行大量投入。
为了加速企业就绪的生成式ai,在近日举行的戴尔科技集团全球大会和微软build大会上,nvidia与戴尔、微软合作提供了针对性的凯发k8官网下载的解决方案,这些方案覆盖云到端,让企业能够快速部署生成式ai。
01用于安全、本地化部署生成式ai的project helix
处于安全性的考虑,企业对于生成式ai模型的部署需要实现本地化构建。基于这样的客户诉求,戴尔与nvidia推出project helix合作项目,其基于戴尔和nvidia的基础设施与软件打造。
project helix支持从基础设施配置、建模、训练、微调、应用开发和部署一直到部署推理和精简结果等整个生成式ai的生命周期。
其中dell poweredge服务器如poweredge xe9680和poweredge r760xa,与nvidia h100 tensor core gpu和nvidia networking一起,并与dell powerscale和dell ecs enterprise object storage等具有弹性、可扩展的非结构化数据存储搭配使用。
project helix包含nvidia ai enterprise软件,为客户提供用于整个ai生命周期的工具。nvidia ai enterprise包含100多个框架、预训练模型和开发工具,例如用于构建生成式ai聊天机器人的nvidia nemo大型语言模型框架与nemo guardrails软件。
project helix还将安全和隐私功能内置在基础组件中,如secured component verification。在本地保护数据可以降低固有风险,帮助企业满足监管要求。
自2023年7月起,基于project helix项目的dell validated designs将通过传统渠道和apex灵活的消费选项提供。
02 nvidia ai enterprise与azure机器学习集成,提供端到端云平台
除了本地化部署,云端部署也是生成式ai的重要方式,openai的chatgpt就是运行在微软的azure云中。
现在,企业也可以享受到这样的服务了。因为nvidia ai enterprise软件套件和azure机器学习相结合,为企业加快其ai计划从开发到生产提供了一个直接、高效的路径。
通过azure机器学习上集成的nvidia ai enterprise,用户还能够访问最高性能的nvidia加速计算资源,以加快ai模型的训练和推理。
借助azure机器学习,开发人员可以轻松地扩展应用——从测试到大规模部署,同时使用azure机器学习的数据加密、访问控制和合规认证可满足安全要求并符合其组织策略要求。借助安全、生产就绪的ai功能,nvidia ai enterprise与azure机器学习形成互补,同时还包括nvidia专家的帮助和支持。
nvidia ai enterprise包含100多个框架、预训练模型和开发工具,例如用于加速数据科学负载的nvidia rapids,nvidia metropolis可加速视觉ai模型开发,而nvidia triton inference server则支持企业实现标准化的模型部署和执行。
nvidia ai enterprise与azure机器学习的集成目前为有限技术预览版,能通过在nvidia社区中注册获得。
nvidia ai enterprise还可在azure marketplace上使用,为全球企业提供了一个强大的全面安全和完全支持的ai开发和部署的新选项。
03在pc设备上部署先进的ai模型
我们知道ai模型对于算力的要求非常高,普通的移动设备是无法承载的。但是微软与nvidia合作,发布在windows pc上开发ai的工具、优化和部署ai的框架,使开发人员能够以生成式ai为核心来构建下一代windows应用。
ai开发通常是在linux上运行,nvidia与微软密切合作,为适用于linux的windows子系统(wsl)内部的整个nvidia ai软件堆栈提供gpu加速和支持。开发人员现在可以使用windows pc来满足所有本地ai开发需求,并支持gpu加速的wsl深度学习框架。
nvidia rtx gpu在台式机工作站中提供高达48gb的显存,开发人员现在可以在windows上处理以前只能在服务器上处理的模型。大显存还提高了ai模型本地微调的性能和质量,使设计师能够根据自己的风格或内容进行定制。
更为重要的是本地运行的nvidia ai软件堆栈与云端是同构的,开发人员因此可以轻松将模型推送到微软azure云上进行大规模训练。
微软还发布了microsoft olive工具链,用于优化pytorch模型并将其转换到onnx,使开发人员能够自动利用rtx tensor core等gpu硬件加速。
开发人员可以通过olive和onnx优化模型,并将tensor core加速的模型部署到pc或云端。微软将继续投资,使pytorch及相关工具和框架与wsl无缝协作,从而提供最佳的ai模型开发体验。
rtx tensor core为ai推理提供高达1400的tensor tflops(万亿次浮点运算)。过去一年,nvidia一直致力于提升directml的性能,以便充分利用rtx硬件的优势。
nvidia将在532.03版驱动中发布最新的优化,与olive优化的模型相结合,大幅提升ai性能。使用olive优化版stable diffusion文本-图像转换器以及受欢迎的automatic1111发行版,新驱动程序的性能提高了2倍以上。
随着ai即将进入几乎所有windows应用,提供节能的推理性能变得至关重要——尤其对于笔记本电脑来说。nvidia即将推出新的max-q低功耗推理,用于rtx gpu上的纯ai工作负载。它在优化tensor core性能的同时尽可能地降低gpu的功耗,延长电池续航时间,并使系统保持出色的散热和降噪表现。根据负载需要,gpu可以动态地扩展,以提供最高的ai性能。
nvidia和微软正在为开发人员提供一些资源,以便在windows pc上测试主要的生成式ai模型。hugging face上提供了一个olive优化版的dolly 2.0大语言模型。此外,用于对话式ai的nvidia nemo大型语言模型的pc优化版也即将在hugging face上线。
总之,通过微软windows平台和nvidia动态ai硬件和软件堆栈背后的互补技术,开发人员将能够在windows 11上快速、轻松地开发并部署生成式ai。