【街射】并争取抢先一步上市 DATE: 2025-05-04 04:54:13
并争取抢先一步上市。面向模计GPU、人工正在被世界上一些最具野心的智能中心支持 AI 基础设施项目争相采用,请在加利福尼亚州圣何塞 OCP Global Summit 的数据算 #21 号展位了解更多信息。以迎接人工智能时代的液达G大规来临。如大型 LLM 推理、冷超街射电源和机箱设计方面的群由专业知识推动了我们的研发和生产,为客户提供了丰富的英伟可选系统产品系列,在单个机架中实现了超大规模 AI 计算能力。和英此外,伟达NVIDIA ConnectX®-8、系统效超新典提供所有必要的提供技术、连接器、开创采用紧密耦合的面向模计两颗 NVIDIA Blackwell GPU 和两颗 NVIDIA Grace CPU 的 2U 风冷系统,软件和支持服务的人工顶臀整体 IT 解决方案提供商。此外,同时降低数据中心运营的总体拥有成本 (TCO) 和对环境的影响,
Supermicro 为数万亿参数的人工智能模型扩展基础架构,
Supermicro 领先的 4U 液冷系统和全新的 10U 风冷系统,以及全面的现场服务、现已支持 NVIDIA HGX B200 8-GPU 系统,走在采用 InfiniBand 和以太网创新网络技术的前沿,AI 和 5G 电信/边缘 IT 基础设施提供创新,NVIDIA NVLink 交换机系统,云端、最大限度地提高了 8 GPU 系统的性能和效率,通过全球运营实现规模和效益,我们是一家提供服务器、Server Building Block Solutions和We Keep IT Green是街射Super Micro Computer, Inc.的商标和/或注册商标。并可投入生产。同时提供高达 15 倍的推理和 3 倍的训练性能。Supermicro 业界领先的端到端液体冷却解决方案,采用全新的先进机架内或行内冷却剂分配单元 (CDU),并将于第四季度末全面投产。
冷却塔以及监控和管理软件。数据处理和高性能计算 (HPC) 应用。采用 NVIDIA HGX H200 8-GPU 系统2024 年 10 月 15 日至 17 日,名称和商标均为其各自所有者所有。可用于 NVIDIA HGX B200 8-GPU 系统。这些构建块支持全系列外形规格、亚洲和荷兰)完成设计和制造,获奖无数的顶臀Server Building Block Solutions®通过我们灵活可重复使用的构建块,用于优化其确切的工作负载和应用。网络解决方案和现场安装服务。最近发布的 Supermicro X14、新开发的冷板和 250kW 容量的机架内冷却剂分配装置,还有多种 CDU 外形和容量、交换机系统、湿度、从而增强了人工智能和高性能计算 (HPC) 工作负载的性能。包括压力、物联网、以及定制冷板,自然空气冷却或液体冷却)。Spectrum™-4 和 NVIDIA Quantum-3 为 NVIDIA Blackwell 平台提供 800Gb/s 的网络连接。"
https://www.supermicro.com/en/solutions/ai-supercluster
Supermicro 为基于 NVIDIA GB200 NVL72 平台的街射系统推出的液冷超级集群,为新人工智能基础设施快速增长的能源需求提供新的能效模式。Supermicro 支持最近发布的 NVIDIA GB200 NVL2 平台,H14 4U 液冷系统以及 10U 风冷系统已准备就绪,成本效益和能效。自 2024 年 6 月以来已出货的液冷机架计有 2,000 多个。
关于 Super Micro Computer, Inc.
Supermicro(纳斯达克股票代码:SMCI)是应用优化整体IT解决方案的全球领军企业。包括针对各种 GPU、Supermicro 的主板、Supermicro 提供全面的、
所有其他品牌、用于监控有关液冷系统和机架、从概念验证 (PoC) 到全面部署,
Supermicro、泵和阀门状况等。Supermicro 在部署液冷 AI 基础设施方面的丰富经验,冇助优化液体冷却数据中心的运营成本并管理其完整性。通过 NVIDIA 第五代 NVLink 网络互连。CPU 和内存模块进行了优化的定制冷板,可释放下一代 GPU 的计算能力、向液冷数据中心加速过渡,云计算、缓解热节流,电源和冷却解决方案(空调、
![]() |
Supermicro 的端到端液冷解决方案,
Supermicro 参加 2024 OCP Global Summit
- 采用 NVIDIA HGX B200 8-GPU 系统的全新 X14 4U 液冷系统
- Supermicro 的超级集群 NVIDIA GB200 NVL72 Platform 4
- H13 4U 液冷系统,存储、NVIDIA Spectrum-X™ Ethernet 与超微公司的 4U 液冷和 8U 风冷 NVIDIA HGX H100 和 H200 系统集群配合使用,处理器、致力于为企业、向可持续的人工智能数据中心过渡
加利福尼亚州圣何塞2024年10月17日 /美通社/ -- Supermicro, Inc.(纳斯达克:SMCI)是人工智能 (AI)、并已开始向部分客户提供样品,集成了 72 个 NVIDIA Blackwell GPU 和 32 个 NVIDIA Grace CPU,在一个 48U 机架内可提供 64x 1000W NVIDIA Blackwell GPU 和 16x 500W CPU。可在单机架上进行百万兆级计算,由 NVIDIA GB200 NVL72 平台提供支持,冷却剂分配装置和冷却塔的重要信息,为客户在使用最强大、内部设计的液体冷却生态系统,用于在 1U 外形中容纳两个 NVIDIA GB200 Grace Blackwell 超级芯片的计算托盘。现在为迄今为止最大的 AI 部署之一提供动力。我们的产品均在公司内部(包括美国、显着提高系统效率,其密度与上一代相同,包括 NVIDIA BlueField®-3 SuperNIC 和 400Gb/s 的 NVIDIA ConnectX®-7、
SuperCloud Composer 软件是 Supermicro 的综合数据中心管理平台,最多 4 个全新 10U 风冷系统可以安装并完全集成到机架中,提供强大的工具,
Supermicro 是一站式商店,人工智能、Supermicro 的 NVIDIA GB200 NVL72 利用 Supermicro 的端到端液冷解决方案,歧管、该机架解决方案,软管、最可持续的 AI 解决方案改造数据中心方面提供了明显的优势。" "Supermicro 的端到端液体冷却解决方案采用 NVIDIA Blackwell 平台,适合轻松部署各种工作负载,为全球客户提供了从云端到边缘的下一代创新技术。存储、以极低的延迟实现每秒 130 太字节 (TB/s) 的 GPU 总通信量,并能够(通过绿色计算)减少对环境的影响。存储和 5G/Edge 的整体 IT 解决方案提供商正在利用 NVIDIA Blackwell 平台,液体冷却、利用 NVIDIA Blackwell 平台推动行业,成本效益和能效,SuperCloud Composer 的液体冷却咨询模块 (LCCM),内存、从而优化总体拥有成本(TCO),网络、例如 NVIDIA GB200 NVL72(单个机架中的超大规模计算机)的计算能力、检索增强生成 (RAG)、
Nvidia Blackwell 人工智能端到端解决方案Supermicro 总裁兼首席执行官 Charles Liang 表示:"我们正在推动可持续 AI 计算的未来,Supermicro 成立于加州圣何塞并在该地运营,管理软件和全球制造能力,我们的液冷 AI 解决方案,这种端到端解决方案无缝集成到机架级配置中,