hpe进军人工智能云市场,推出hpe greenlake for large language models(适用于大语言模型的hpe greenlake),帮助各类企业私密训练、调整和部署大规模人工智能。
hpe宣布正在通过扩展hpe greenlake产品组合进入人工智能云市场。新产品基于hpe按需使用的多租户超级计算云服务打造,能为从初创公司到超大型500强企业的任何组织提供大语言模型。
hpe greenlake for large language models(适用于大语言模型的hpe greenlake)的推出为企业带来无限新机——hpe领先的人工智能软件和超级计算技术相结合,为客户打造出一款可持续的超级计算平台,可用于私密训练、调整和部署大规模人工智能。
hpe greenlake for large language models由hpe与德国人工智能初创公司aleph alpha合作研发,能为用户提供经验证且随时可用的大语言模型,进而支持需要对文本和图像进行处理和分析的用例。未来,hpe还将陆续推出一系列聚焦特定行业和领域的人工智能应用,这些应用将覆盖气候建模、医疗保健和生命科学、金融服务、制造和交通等行业。
hpe总裁兼首席执行官antonio neri表示:“我们正在经历人工智能领域的跨时代更迭,它将像网络、移动技术和云一样带来颠覆性的变革。曾几何时,人工智能是资金雄厚的政府实验室和全球云巨头主导的领域;而现在,hpe正致力于通过提供一系列人工智能应用,打造人人可用的人工智能。此次推出的大语言模型正是我们系列人工智能计划的第一步,它运行在hpe可靠且可持续的超级计算机上,通过按需使用、按用付费的云服务交付,能够大规模且负责任地训练、调整和部署模型,帮助组织更好地利用人工智能推动创新,颠覆市场,创造突破性成果。”
hpe是超级计算领域的全球领导者和专家,hpe打造了全球最快的超级计算机frontier,突破了百亿亿级计算瓶颈,有能力为人工智能提供前所未有的性能和规模。
与并行多个工作负载的通用云产品不同,hpe greenlake for large language models运行在人工智能原生架构上。该架构特别适用于运行单个大规模人工智能训练和模拟工作负载,并具有完整的计算能力。该产品将支持数百至数千个cpu或gpu同时工作,以处理人工智能和高性能计算工作负载。这种能力能够有效、可靠和高效地训练人工智能,创建出更精准的模型,加速企业从概念验证到落地生产的过程,从而更快地解决问题。
hpe greenlake for llms——hpe系列人工智能应用中的首款产品
hpe greenlake for large language models开放了用户对luminous的访问权限,luminous是由aleph alpha提供的预训练大语言模型,支持多种语言版本。hpe greenlake for large language models允许客户利用自身数据来训练和微调定制化的模型,因此可以基于自身已有的信息获得更具价值的实时洞见。
该服务能帮助企业构建和推广各种人工智能应用程序,能够集成到企业自身的工作流程中,释放由业务数据和研究驱动的商业价值。
aleph alpha创始人兼首席执行官jonas andrulis表示,“通过使用hpe的超级计算机和人工智能软件,我们高效、快速地训练了适用于关键业务的大语言模型luminous,可供银行、医院和律师事务所等用作数字助理,加快决策的同时节省企业宝贵的资源。aleph alpha很荣幸能够成为hpe greenlake大语言模型的研发凯发k8官网下载的合作伙伴,我们期待在未来继续扩大与hpe的合作——将luminous扩展到云端,并将其作为服务提供给我们的最终客户,以赋能新的业务应用和研究创新。”
hpe打造超算级的人工智能的训练、调整和部署
hpe greenlake for llm将按需提供,在业界最强大、最可持续的超级计算机hpe cray xd超级计算机上运行,使客户无需购买和管理自己的超级计算机,这种计算机通常成本高昂、复杂且需要特定的专业知识。该产品利用hpe cray编程环境,是一个完全集成的软件套件,可优化hpc和ai应用程序,并提供一整套用于开发、移植、调试和调整代码的工具。
此外,超级计算平台还为hpe的ai/ml软件提供支持,其中包括用于快速训练大模型的hpe机器学习开发环境,以及用于集成、跟踪和审核具有可重现ai功能数据的hpe机器学习数据管理软件,以生成值得信赖且准确的模型。
hpe greenlake for llms——运行在可持续计算系统
hpe致力于为客户提供可持续的计算。hpe greenlake for llms运行在托管设施中,例如北美的qscale,能够使用近乎100%的可再生能源来支持超级计所需的的规模和容量。