NVIDIA英伟达H800人工智能服务器为各类数据中心提供出色的性能、可扩展性和安全性。
加速计算的数量*飞跃
通过 NVIDIA英伟达H800人工智能服务器 GPU,在每个工作负载中实现出色性能、可扩展性和安全性。使用 NVIDIA® NVlink® Switch 系统,可连接多达 256 个 H800 来加速百亿亿* (Exascale) 工作负载,另外可通过专用的 Transformer 引擎来处理万亿参数语言模型。与上*代产品相比,H800 的综合技术创新可以将大型语言模型的速度提高 30 倍,从而提供业界**的对话式 AI。
准备好迎接企业 AI 了吗?
企业采用 AI 现已成为主流,企业组织需要端到端的 AI 就绪型基础架构,加快自身迈向新时代的步伐。
适用于主流服务器的 H800 随附五年期 NVIDIA AI Enterprise 软件套件订阅(包括企业支持),能够以强大的性能简化 AI 的采用。这可确保组织能够访问构建 H800 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 聊天机器人、推荐引擎和视觉 AI 等。
NVIDIA英伟达H800人工智能服务器GPU算力租赁配置:
项目 |
标准配置 |
框架 |
8U 机架式服务器 |
处理器 |
2颗*4代/*5代至强系列*高 64 核/3.9GHz/320MB缓存 |
内存 |
*大容量 4TB |
GPU |
NVIDIA HGX H800 GPU模组 |
系统硬盘 |
M.2 NVMe PCIe接口 2TB SSD |
数据硬盘 |
2*10TB 企业* SATA 硬盘 RAID 10 阵列配置 |
InfiniBand 网络 |
ConnectX-7 400Gb/s |
Ethernet 网卡 |
OCP 网卡/双电口/10G |
PICE 插槽 |
9 个 PCIe 5.0 扩展插槽 |
电源 |
6*3000W,2*2700W,AC220 输入 |
风扇 |
10 个 54V 风扇模组 |
操作系统 |
Windows Server/RedHat Enterprise Linux/SUSE Linux Enterprise Server/CentOS/Ubuntu/Vmware EXSi |
工作温度 |
+5°~+35° |
其他接口 |
机箱后部:1 个 RJ45 管理接口,2 个 USB 3.0,1 个 VGA 机箱前部:2 个 USB 3.0,1 个 VGA |
整机净重 |
120KG(以实际配置为准) |
安全地加速从企业*到百亿亿次*规模的工作负载
实时深度学习推理
超大模型的 AI 推理性能提升高达 30 倍
HPC 应用的性能提升高达 7 倍
百亿亿次*高性能计算
加速数据分析
为企业提高资源利用率
内置机密计算
为大规模 AI 和高性能计算提供出色的性能