充分利用先进的计算平台,综合运用CPU、GPU、FPGA等异构平台

为客户打造高性能计算资源

HPE 与英伟达深化合作,HPE 服务器赋能 AI 基础设施新升级

在人工智能技术飞速发展的当下,企业对 AI 基础设施的算力、效率和可控性提出了更高要求。

12月 2, 2025 — 来源:互联网
在人工智能技术飞速发展的当下,企业对 AI 基础设施的算力、效率和可控性提出了更高要求。12 月 1 日,HPE 在巴塞罗那举办的 HPE Discover 2025 活动上,重磅宣布与英伟达进一步扩展合作版图,此次合作不仅聚焦于 AI 基础设施的技术创新,更将 HPE 服务器的核心算力优势与英伟达的 AI 技术深度融合,为全球企业打造更具竞争力的 AI 解决方案。
 
此次合作的重要举措之一,是双方将在法国格勒诺布尔携手打造欧盟首个 AI 工厂实验室,该实验室预计于 2026 年第二季度正式开放。这座实验室将配备 HPE 与英伟达联合研发的最新 AI 工厂技术,其中 HPE 服务器作为核心算力载体,将搭载英伟达先进的 AI 芯片与软件架构,为实验室提供强大的运算支撑。实验室建成后,将面向全球客户开放,供其测试和验证主权 AI 工厂的各类工作负载,这一举措将有效满足企业在 AI 发展过程中,对 AI 基础设施自主可控以及数据安全管理的核心需求,让企业能够在保障数据主权的前提下,高效开展 AI 模型训练、推理等业务。
 
除了共建 AI 工厂实验室,HPE 与英伟达还推出了一系列针对性的 AI 场景新方案,而 HPE 服务器在这些方案中始终扮演着关键的硬件核心角色。在网络技术整合方面,双方将 Juniper 网络技术融入 AI 和私有云服务体系,借助 MX 系列路由器实现边缘端的高效接入,通过 PTX 路由器完成跨距离或多云 AI 集群的数据中心互连,而 HPE 服务器则作为边缘和数据中心的算力节点,与这些网络设备形成高效协同,确保 AI 数据在传输和处理过程中的流畅性与稳定性,进一步释放 AI 算力潜能。
 
在数据处理环节,HPE 推出了 Alletra Storage MP X10000 数据智能节点,该节点可与 HPE 服务器无缝配合,提前完成 AI 数据的预处理工作。在传统 AI 运算流程中,数据准备环节往往耗时耗力,成为制约 GPU 利用率的瓶颈,而 Alletra Storage MP X10000 数据智能节点能够对海量原始数据进行筛选、清洗、转换等预处理操作,再将优化后的数据传输至 HPE 服务器进行 GPU 运算,大幅减少了 GPU 在数据准备阶段的等待时间,显著提升了 GPU 的利用率,让 HPE 服务器的 AI 运算效率得到质的飞跃。
 
此外,HPE 私有云 AI 平台也迎来重要升级,新增了 GPU 分片化支持功能。这一功能依托英伟达 GPU 虚拟化技术实现,企业可将单块 GPU 资源分割为多个虚拟算力单元,分配给不同的 AI 任务使用。而 HPE 服务器凭借出色的硬件兼容性和扩展能力,能够完美适配这一虚拟化技术,让中小企业无需投入高昂成本购置大量 GPU,仅通过共享 GPU 分片资源就能开展 AI 业务,有效降低了企业的 AI 基础设施建设成本,同时也让 HPE 服务器的算力资源得到更精细化的利用,进一步扩大了 HPE 服务器在中小企业 AI 市场的应用覆盖面。

业界相关新闻

特别声明:本站登载内容出于更直观传递信息之目的。该内容版权归原作者所有,并不代表本站赞同其观点和对其真实性负责。如该内容涉及任何第三方合法权利,请及时与 chenzb@ihuidian.com 联系;我们会及时反馈并处理完毕。

上一篇:没有了
下一篇:没有了