公共云平台的战场转至生成式 AI, AWS 在美国拉斯维加斯的年度大会 re:Invent 发表一连串生成式 AI 服务,其中有夥拍 NVIDIA 以 GH200 超级晶片建立超大规模丛集执行个体和具 65EFLOPS 运算效能的 AI 超级电脑。同时发表类似 ChatGPT 或 Copilot 的智能助理 Amazon Q ,用自然语言协助日常办公。

AWS 用企业的数据建立生成式 AI 服务。该公司行政总裁 Adam Selipsky 表示,企业的数据是其优势,生成式 AI 用企业数据进一步发挥价值。企业引入生成式 AI 有不同选择,可能自行训练 LLM 和开发工具,或调校现成模型直接使用。 AWS 的策略是为企业提供更多大型语言模型,按需求选用。 Selipsky 特别强调:「云端平台只提供单一语言模型并不足够,甚至可能引起危机。在过去的十多日业界应该清楚了解情况。」

AWS 的生成式 AI 堆叠( Gen AI Stack )分成三部分。首先在基建方面,该公司与 NVIDIA 有多项合作,为首个提供 GH200 超级晶片、 DGX Cloud 方案的云端服务商。 双方合作提供 NVIDIA GH200 NVL32 多节点平台的执行个体,平台采用 NVLink 与 NVSwitch 技术连结 32 个 GH200 超级晶片。配合 AWS 的 Nitro 、 EFA 、 UltraClusters 等连线技术,可扩展至配备数千 GH200 超级晶片的规模。 DGX Cloud 方案为 AI 训练即服务,用於训练具备 1 兆参数的大型语言模型。

NVIDIA 创办人及行政总裁黄仁勳称,企业藉此以高效能基建训练模型,而下一步将共同建立 Project Ceiba ,以 GPU 驱动的 AI 超级电脑。预计该超级电脑具备 65EFLOPS 运算能力,用上 16,384 颗 GH200 超级晶片,由 NVL32 与 EFA 连线技术支援。 AWS EC2 将加设 NVIIDA 新款 GPU 的执行个体,包括配置 H200 的 P5e 、 L4 和 L40S 的 G6 及 G6e ,可用於高效能工作负载、调校 LLM 、推论等。

AWS 亦发表自行研发的 Trainium 2 ,较三年前推出的 Trainium 快 4 倍,专为训练上兆参数的基础模型而设。 Selipsky 称, Trainium 2 适用於讲求成本效益的企业,通过 AWS 连线技术可建立 65EFLOPS 运算效能的超级电脑执行个体。

AWS 在上述基础上设有基础模型托管服务 Bedrock,原有的 6 个模型以外还加入 OpenAI 的对手 Anthropic 。後者为 OpenAI 前员工所创立,今年 9 月获 AWS 及 Google Cloud 分别注资 40 亿美元和 15 亿美元。 Anthropic 创办人 Dario Amodei 称,旗下的大型语言模型 Claude 由 AWS 基建训练,同时为 Bedrock 用户提供新选择。 Claude 2.1 一次可解读 20 万字词,约是超长篇书本,较前一代倍增长度。

生成式 AI 堆叠的应用方面,有今年的重点新发布 —— Amazon Q 。这服务利用企业的数据训练而生成相关的内容,协助员工日常工作。 Selipsky 表示, Amazon Q 用 AWS 过去 17 年的知识来训练,支援 IT 人员和企业员工,例如协助升级程式码,将旧版本的 Java 程式码升级, 1,000 个程式仅用两日完成。 IT 人员可将基建要求输入 Amazon Q ,获得建议使用合适的 AWS 服务和执行个体。

Amazon Q 可连接逾 40 个软件,包括: Dropbox 、 Google Drive 、 Microsoft 365 等,分析内里的数据,回答用户的业务提问,提供度身订造的对话、生成内容。过程设有身分验证,按职能权限存取数据。该公司旗下的 BI 服务 QuickSight 、客户服务中心 Connect 都会加入 Amazon Q ,注入 AI 功能。

最新影片

surfshark怎么注册