在 Nvidia GTC 上,DDN (DataDirect Networks, Inc.) 宣布了 Nvidia DGX BasePOD 和 Nvidia DGX SuperPOD 的下一代参考架构。

 

Ddn Nvidia Mini Rack L Ai400x2 492x801

这些支持人工智能的存储解决方案提升了公司在大规模企业数字化转型中的地位,同时将各种规模系统的部署和管理从概念验证到生产和扩展简化了 10 倍。

该公司在 2021 年部署了超过 2.5EB 的 AI 存储,并支持全球部署的数千个 Nvidia DGX 系统。它的系统在最苛刻的生产人工智能环境中运行,从自动驾驶汽车到金融、自然语言处理、气候建模和大规模药物发现。此外,该公司还使小型企业 IT 组织能够在其 AI 数字化转型计划中取得成功。

DDN 产品副总裁 James Coomer 博士说:“我们与 Nvidia 的密切技术和业务合作使企业 WW 能够最大限度地提高 AI 应用程序的性能并简化所有人的部署。” “借助包括 DDN 的 A3I AI400X2 在内的下一代参考架构,我们正在为客户提供显着的价值,加速企业数字化转型计划,并为最苛刻的数据密集型工作负载提供轻松管理。”

英伟达公司 AI 系统高级总监 Tony Paikeday 表示:“利用 AI 实现业务现代化的组织需要灵活、易于部署的基础设施来应对任何规模的企业 AI 挑战。”基于 Nvidia DGX BasePOD 构建的下一代 DDN A3I 为客户提供集成的 AI 解决方案,以推动他们最具创新性的工作取得成功。”

该公司由 DGX BasePOD 提供支持的 A3I 是以前称为 DGX POD 配置的演变。这些配置增加了灵活性和客户选择,同时保持了用户开始小规模部署并随着时间的推移扩展其 DGX 集群的能力。此外,该公司正在与 Nvidia 合作开发针对金融服务、医疗保健和生命科学以及自然语言处理的垂直特定 DGX BasePOD 解决方案。使用这些 DGX BasePOD 配置的客户不仅可以获得集成的部署和管理,还可以获得包括 Nvidia AI Enterprise 软件套件在内的软件工具,这些工具针对他们的特定应用进行了调整,以加快开发人员的成功。

A3I AI400X2 是一款全 NVMe 设备,旨在帮助客户从其 AI 和分析数据源中提取最大价值,在最大规模的生产中得到验证,是世界上高性能和高效的 AI 基础设施构建块。可配置为全闪存或混合,客户可以构建高效的横向扩展 AI 数据池,以适应其确切的性能和容量需求。最近对 EXAScaler 管理框架的增强已将设备的部署时间从 8 分钟缩短到 50 秒以下。这种方法使组织能够更好地预测资源分配,并允许更快、更简单的扩展,从而提高投资回报率。

DGX BasePOD 参考架构为客户提供了获取、部署和扩展 AI 基础设施的公式。借助针对 AI 工作负载优化的环境,组织可以更快地获得洞察力和更快的投资回报率。

标准配置小至 2 个 DGX A100 系统和一个 AI400X2 系统,大至 100 个 DGX 系统和 10 个 AI400X2 系统。组织可以以任何规模进入,可扩展的模型让他们可以根据需要使用简单的构建块进行扩展。在公司的支持下,在人工智能数据管理,以及英伟达技术、集成和性能测试方面,客户可以放心,他们将获得最快的人工智能创新之路。

人工智能推动 DDN 和客户的持续增长
20 多年来,该公司设计、开发、部署和优化了系统、软件和存储解决方案,使企业、服务提供商、大学和政府机构能够创造更多价值,并加快从数据和信息中获得洞察力的时间,在本地和云端。该公司在过去 2 年中将研发投资扩大了 65%,使其成为行业领先者,将 20% 的收入再投资于研发。在上半年结束时,该公司同比增长 16%,这得益于商业企业对优化人工智能基础设施的需求。

英伟达 GTC 的 DDN
该公司在 Nvidia GTC 上进行了虚拟演示,这是一个关于 AI 和 metavers 的全球会议