产品介绍 NVIDIA英伟达H100、H800与H200人工智能服务器为各类数据中心提供出色的性能、可扩展性和安全性,加速计算的数量级飞跃。 通过 NVIDIA H100 Tensor Core GPU,在每个工作负载中实现出色性能、可扩展性和安全性。使用 NVIDIA® NVLink® Switch 系统,可连接多达 256 个 H100 来加速百亿亿级 (Exascale) 工作负载,另外可通过专用的 Transformer 引擎来处理万亿参数语言模型。与上一代产品相比,H100 的综合技术创新可以将大型语言模型的速度提高 30 倍,从而提供业界**的对话式 AI。 准备好迎接企业 AI 了吗? 企业采用 AI 现已成为主流,企业组织需要端到端的 AI 就绪型基础架构,加快自身迈向新时代的步伐。 适用于主流服务器的 H100 随附五年期 NVIDIA AI Enterprise 软件套件订阅(包括企业支持),能够以强大的性能简化 AI 的采用。这可确保组织能够访问构建 H100 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 聊天机器人、推荐引擎和视觉 AI 等。
NVIDIA英伟达H100、H800与H200人工智能服务器GPU算力租赁配置参数:
安全地加速从企业级到百亿亿次级规模的工作负载 实时深度学习推理 超大模型的 AI 推理性能提升高达 30 倍 HPC 应用的性能提升高达 7 倍 百亿亿次级高性能计算 加速数据分析 为企业提高资源利用率 内置机密计算 为大规模 AI 和高性能计算提供出色的性能
|
相关产品
|