编译/庄闵棻

Google母公司Alphabet的云端运算部门Google Cloud表示,为简化公司Google云端中人工智慧(AI)软体的开发,已与AI新创公司 Hugging Face 建立合作夥伴关系,让开发人员无需支付 Google Cloud 订阅费用即可建立、训练和部署 AI 模型。随着微软和Alphabet 等公司推出专注於消费者的生成式AI工具,为增强现有产品、满足内部需求,大大小小的企业都开始部署自己的AI。

Google母公司Alphabet的云端运算部门Google Cloud表示,为简化公司Google云端中人工智慧(AI)软体的开发,已与AI新创公司 Hugging Face 建立合作夥伴关系。(图/123RF)

据外媒报导,Google Cloud 和Hugging Face 宣布建立新的策略合作夥伴关系,允许开发者将Google Cloud 的基础设施用於所有Hugging Face 服务,并支援Hugging Face在Google Cloud上的模型培训和服务。现在,使用 Hugging Face 平台的开发人员将能够「经济高效」地使用Google的张量处理单元 (TPU),和该公司使用图形处理单元(GPU)建立的超级电脑。

更多新闻:强者聚集!辉达、微软、OpenAI等公司与美国政府合作进行AI研究计画

换句话说,Google Cloud 和 Hugging Face 将密切合作,帮助开发人员在 Google Cloud 上更快、更有经济地训练和服务大型 AI 模型。其中一些好处包括:

  • 轻松使用Google Cloud 的服务

两者的合作为开发人员只需在Hugging Face 平台上点击几下,即可透过Google的Vertex AI 来训练、调整和提供Hugging Face 模型的服务。如此一来,他们就可以轻松地利用Google Cloud 专门构建的端到端机器学习作业(MLOps)服务来建构新一代AI应用程式。MLOps是一组用於自动化和简化机器学习工作流程和部署的实践工具。

  • 支援开源管理平台Google Kubernetes Engine (GKE)

两家公司的合作也将支援开源管理平台 Google Kubernetes Engine (GKE) 的使用,让 Hugging Face 上的开发人员可以透过GKE 进行模型的各种操作,包括训练(training)、调校(tuning)及提供服务(serving)。同时,开发人员还可以利用 Hugging Face 专用的深度学习容器(Deep Learning Containers),在 GKE 上进行这些操作。深度学习容器是预先配置深度学习相关软体和工具的环境,使用户可以更方便地进行机器学习和深度学习任务。

  • 开放Google Cloud 最新一代AI 加速器Cloud TPU v5e 的使用权限

此外,Google和Hugging Face还将为更多开源开发人员提供最新一代AI 加速器Cloud TPU v5e 的使用权限。与之前的版本相比,每美元的效能提升高达 2.5 倍,推理延迟降低高达 1.7 倍。

  • 在未来增加对辉达A3超级电脑虚拟机器(VM)的支持

未来Google也将为Hugging Face增加对辉达 A3 VM 的支持。A3 VM由辉达H100 Tensor Core GPU 提供支持,与上一代相比,训练速度提高 3 倍,网路频宽提高 10 倍。

  • 提供简单计费方式

最後,Hugging Face也能利用 Google Cloud Marketplace 进行简单的管理和计费。 Google Cloud Marketplace 是一个提供各种云端服务和应用的平台,企业和开发者可以透过这个服务轻松地访问和使用不同的云端解决方案。在这种情境下,Hugging Face 托管平台的各项服务,如推论(Inference)、端点(Endpoints)、空间(Spaces)、自动训练(AutoTrain)等,都可以透过 Google Cloud Marketplace 进行管理和计费,代表使用者可以透过 Google Cloud Marketplace 的界面轻松管理他们在 Hugging Face 平台上的资源,同时使用 Google Cloud 的计费系统追踪和支付相关的费用。

Google Cloud执行长的说法

Google Cloud执行长 Thomas Kurian表示,「Google Cloud和 Hugging Face 都希望让生成式AI对开发者来说更容易使用、更具影响力。这种合作关系确保 Hugging Face 上的开发人员将能够访问 Google Cloud 专门构建的 AI 平台 Vertex AI 以及我们的安全基础设施,这可以加速下一代 AI 服务和应用程序的发展。」

Hugging Face 执行长全力支持

Hugging Face 执行长 Clement Delangue 则表示。「从最初的《Transformers》文献到预训练模型 T5 和 Vision Transformer,Google一直处於AI进步和开放科学运动的最前端。透过这项新的合作关系,我们将使Hugging Face 用户和Google Cloud 客户能够轻松利用最新的开源模式,以及来自Google Cloud 的领先优化AI 基础设施和工具(包括Vertex AI 和TPU),进而提高开发人员建立AI模型的能力。」

参考资料:Reuters、prnewswire、The Verge