SMCI Computex 直击:液冷、机架级服务器、AI 工厂三大趋势值得关注
24 年6 月Computex 展会在中国台湾举行,SMCI CEO 梁见后于6 月5 日发主题表演,阐述SMCI 作为机架级服务器系统供应商,走在AI 热潮前沿。
演讲展现了AI 服务器产业链三大趋势:1)液冷普及:SMCI 在液冷服务器领域早有建树,而Dell、联想、HPE 在Blackwell 功耗大幅上升背景下,也纷纷采用DLC 液冷,提升散热及能源效率与集成度;2)机架级服务器大批量出货:SMCI、鸿海精密、广达等厂商NVL72 GB200 机架级服务器正准备大批出货,ASP 均将超过300 万美元,助厂商提高创收能力;3)AI 工厂:
服务器已从过往成本中心,向如今创收的AI 工厂转变。我们认为服务器厂商作为连接芯片厂商和下游AI 应用的枢纽,有望充分受益于AI 热潮。
SMCI 推动数据中心液冷普及,全面提升能源效率SMCI 在会上宣称,作为行业内推行液冷的先锋,公司将提供不增加采购成本、高可靠性的DLC 液冷服务器,并将交付时间从行业传统的4-12 月大幅缩至2-4 周,已达成每天50 柜机架液冷服务器出货,志在引领全球新建数据中心DLC 采用率在1 年内从1%升至15%,并在2 年内达30%。DCL 方案契合当下AI 芯片功耗攀升中对高性能散热与绿色计算需求,SMCI 称在8000 片GPU 的AI 服务器集群中,相较于风冷,液冷方案将将减少0%-3%的资本支出和33%的能源消耗,并实现5 年内6000 万美元运营成本节约。
NVLink 5.0 革新带动机架级服务器出货,助力服务器厂商增收英伟达新一代NVLink 5.0 互联方案进步显著,总带宽可达1.8TB/s,能够支持72 片GPU 与36 片CPU 互联,并大幅减少通信算力损耗,推动超300万美元ASP 的72 GPU 机架级服务器取代以往30 万美元ASP 的8 GPUH100 服务器,成为下游AI 工厂核心创收组件,进而有望助力中游服务器厂商增收。鸿海精密和广达聚焦于为云巨头代工AI 服务器,均将于下半年率先出货GB200 AI 服务器,而SMCI 则时间稍晚,将于25 年出货。
推出新一代X14/H14 模块化数据中心系统,实现性能和能效大提升SMCI 在本次Computex 展会中宣布推出X14/H14 服务器系统,分别搭载Intel 3 制程的Intel Xeon 6 CPU 和3nm-4nm 制程的AMD Turin CPU 核心,成为公司首个模块化数据中心系统(DC-MHS),助力降低大规模数据中心的构建和维护成本。其中X14 服务器系统已公布详细信息,将搭载主打P核的Xeon 6900 CPU(Granite Rapids)和主打E 核的Xeon 6700 CPU(Sierra Forest),与Xeon 4 CPU 相比,搭载P 核的X14 服务器实现了2x-3x的性能提升和2.8x 内存带宽提升,而主打E 核的X14 服务器则实现了2.5x机架密度提升和2.4x 每瓦性能提升,助力数据中心PUE 降低至1.05。
瞄准AI 机遇,SMCI 构建液冷机架级解决方案,并全面提升交付能力面对AI 负载高能耗与集成度需求,SMCI 提供直接芯片冷却(DLC)和后门热交换器(RDHx)液冷全栈解决方案,包括冷板、CDU、CDM 和冷却塔等组件,将数据中心的整体功耗相较于风冷降低40%(其中散热能耗降低89%),并大幅提升服务器密度,实现每机架高达100 kW 功率的处理能力,助力数据中心降低TCO 和TCE。面对AI 服务器供不应求机遇,公司已实现了机架级别服务器当天部署,集群定制服务器数周内完成设计并交付的高效率;并积极扩产,一季度出货1000 台机架级服务器,伴随着马来西亚工厂投入运营,公司目前已实现5000 柜机架(1350 柜液冷机架)服务器月产能。
风险提示: AI 技术落地和推进不及预期,行业竞争激烈,中美贸易摩擦等;相关信息数据来自于公开客观信息,不代表对相关公司的研究覆盖和推荐。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论