IBM (NYSE: IBM ) 今天宣布与 NVIDIA (NASDAQ: NVDA) 建立新的合作关系,包括基于 NVIDIA AI 数据平台参考设计计划进行的新集成,以帮助企业更有效地利用其数据,帮助构建、扩展和管理生成式 AI 工作负载和代理式 AI 应用程序。作为今天新闻的一部分,IBM 计划为其混合云基础设施产品 IBM Fusion 推出内容感知存储功能;打算扩展其 watsonx 集成;并与 NVIDIA 一起推出新的 IBM 咨询功能,以帮助推动整个企业的 AI 创新。
IBM 2024 年报告发现,接受调查的高管中超过四分之三 (77%) 表示生成式 AI 已做好上市准备,而 2023 年这一比例仅为 36%。随着 AI 投入生产的推动,对计算和数据密集型技术的需求也随之增加。IBM 与 NVIDIA 的合作将使 IBM 能够提供混合 AI 解决方案,利用开放技术和平台,同时支持数据管理、性能、安全性和治理。
这些新解决方案利用 NVIDIA AI 数据平台参考架构,是 IBM 和 NVIDIA 合作构建 AI 企业基础设施的最新成果:
增强非结构化数据处理以提高 AI 性能:借助 IBM 全新的内容感知存储 (CAS) 功能,企业将能够提取快速增长的非结构化数据量中隐藏的含义以进行推理,同时又不损害信任和安全性,从而负责任地扩展和增强 AI 应用程序,例如检索增强生成 (RAG) 和 AI 推理。IBM Storage Scale 将使用提取和增强的数据响应查询,并使用NVIDIA BlueField-3 DPU和NVIDIA Spectrum-X 网络加快 GPU 与存储之间的通信。多模式文档数据提取工作流程还将利用使用 NVIDIA NIM 构建的 NVIDIA NeMo Retriever 微服务。CAS 将嵌入计划于今年第二季度发布的 IBM Fusion 的下一次更新中。
实现更易于访问的 AI:IBM计划将其 watsonx 产品与NVIDIA NIM集成,这是一项更大努力的一部分,旨在跨多个云环境提供对领先 AI 模型的访问。这将使组织能够利用IBM 的企业级 AI 平台和开发工作室watsonx.ai来开发 AI 模型并将其部署到他们选择的应用程序中,同时利用外部托管的模型。IBM 的 watsonx.governance 还允许企业在任何托管环境中实施对 NVIDIA NIM 微服务的强大监控和治理。随着组织采用代理 AI 和其他需要 AI 模型集成的高级应用程序,这种类型的互操作性变得越来越重要。
增加对计算密集型工作负载的支持:随着越来越多的企业采用生成式 AI 和高性能计算 (HPC),IBM Cloud 宣布在 IBM Cloud 上推出 NVIDIA H200 实例,从而扩展了其 NVIDIA 加速计算产品组合。NVIDIA H200 Tensor Core GPU 实例具有大内存容量和高带宽,旨在满足现代 AI 工作负载和更大的基础模型的需求。
使用 Agentic AI 和 NVIDIA 转变流程: IBM Consulting 推出了AI 集成服务,帮助客户使用NVIDIA Blueprints通过 Agentic AI 转变和管理端到端业务流程,例如需要边缘 Agentic AI 的行业特定工作流程。示例用例包括制造业的自主检查和维护或能源行业的主动视频数据分析和异常响应。
优化混合云环境中的计算密集型 AI 工作负载: IBM Consulting 利用 RedHat OpenShift 和 NVIDIA AI 帮助客户在混合云环境中构建、现代化和管理计算密集型 AI 工作负载。这包括NVIDIA AI Foundry、NVIDIA NeMo、NVIDIA AI Enterprise、NVIDIA Blueprints 和NVIDIA Clara等技术,以加速高计算、复杂任务,同时管理 AI 治理、数据安全和合规性要求。
IBM 基础设施首席技术官兼创新总经理Hillery Hunter表示:“IBM 致力于帮助企业构建和部署有效的 AI 模型并快速扩展。IBM和 NVIDIA 携手合作,创造并提供解决方案、服务和技术,以解锁、加速和保护数据,最终帮助客户克服 AI 的隐性成本和技术障碍,实现 AI 货币化并推动真正的业务成果。”
NVIDIA 存储网络技术副总裁Rob Davis表示:“AI 代理需要快速访问、获取和处理大规模数据,而如今,这些步骤发生在不同的孤岛中。IBM的内容感知存储与 NVIDIA AI 的集成,可以在优化的网络结构中协调数据和计算,以智能、可扩展的系统克服孤岛问题,该系统可近乎实时地进行推理,实现响应式 AI 推理。”