DoNews5月29日音讯 日前,Supermicro,Inc. (NASDAQ:SMCI)为云端、AI/ML、存储和5G/智能边际运用的全方位IT解决计划供给商,将持续致力于供给杰出的IT解决计划,以下降现代化数据中心对环境的影响。现在,Supermicro正在推动要害范畴的技能发展,包括产品规划、绿色核算、制作和机架级集成,以助力企业及安排快速进步出产功率并下降能耗。
Supermicro总裁兼首席执行官梁见后(Charles Liang)表明:“咱们十分重视绿色核算,因而咱们凭借英伟达(NVIDIA)、英特尔(Intel)和AMD的最新CPU及GPU技能,规划和制作先进且能下降功耗的服务器和存储体系。咱们立异的机架级液冷计划使企业或安排能够将数据中心的电力开销下降达40%。选用NVIDIA HGX H100 8-GPU服务器能够很好地满意人工智能作业负载的需求,因而广受客户欢迎。咱们正在运用NVIDIA Grace CPU超级芯片的立异服务器来扩展咱们的解决计划,并于NVIDIA进一步打开密切协作,将节能服务器带到人工智能等更多的商场。现在在全球规模内,咱们每月可发运4000机架,估计到年末将能够进步到5000以上。”
Supermicro具有最全面的产品组合,能够为人工智能作业负载和其他笔直范畴供给大力支撑。其立异型体系包括根据第四代Intel Xeon可扩展处理器和第四代AMD EPYC 处理器的单插槽和双插槽机架装置体系,供给1U、2U、4U、5U和8U标准,并支撑1到10 GPU。此外还包括在8U机箱中支撑20个NVIDIA H100 GPU的密度优化型SuperBlade®体系,以及专门针对物联网和边际环境规划的SuperEdge体系。全新发布的E3.S Petascale存储体系在运用超大规模的人工智能数据集进行练习时,体现出了杰出的功能、容量、吞吐量和耐用性,一起还供给超卓的能效。
根据NVIDIA Grace CPU超级芯片的新产品系列将很快上市。这些新服务器均包括144个中心,双CPU及900 GB/s 共同性接口,可运转高呼应度的人工智能运用程序和需求极低推迟呼应的运用程序。此外,CPU以500W TDP的速度运转,该体系将为云原生作业负载和下一代人工智能运用下降能耗。
跟着人工智能运用的飞速发展,对高端人工智能规划的服务器的需求也在添加,这给体系供货商整合最新的CPU和GPU带来新的应战。最先进的Supermicro GPU服务器集成了双CPU和多达8个NVIDIA HGX H100 GPU,并具有液体冷却选项,能够协助下降运营本钱。
NVIDIA超大规模和高功能核算副总裁Ian Buck表明:“NVIDIA与Supermicro严密协作,面临苛刻的客户需求,快速为新的服务器规划带来立异。跟着Supermicro选用Grace CPU 超级芯片的服务器上市在即,以及H100 GPU在全球规模的运用遍及,咱们正在共同努力,将人工智能带到广泛的商场和运用中。
为了协助客户下降全体具有本钱,Supermicro正在支撑新的NVIDIA MGX参阅架构,该架构将为一系列人工智能、高功能核算和Omniverse运用供给超越100种服务器装备。这种模块化的参阅架构包括CPU、GPU和DPU,适用于多代处理器。
Supermicro还将在广泛的解决计划中归入最新的NVIDIA Spectrum™-X网络渠道。该渠道是第一个专门为进步根据以太网的AI云的功能和功率而规划的渠道。Spectrum-X建立在由NVIDIA Spectrum-4以太网交换机与NVIDIA BlueField®-3数据处理单元(DPU)严密耦合的网络立异之上。这项突破性技能完成了1.7倍的全体人工智能功能和动力功率进步,一起在多租户环境中完成了共同、可猜测的功能。
现在,数据中心耗费的电力占到了全球电力需求的1-1.5%,因而绿色核算关于数据中心至关重要。Supermicro完好的机架级液冷解决计划能够大幅下降对传统冷却办法的需求。经过冗余和热插拔电源和泵,机架上的一切高功能AI和HPC优化服务器都能够得到有用冷却,不惧电源或泵产生任何毛病。该解决计划还为CPU和GPU量身定制了冷板(Cold Plate),相较于传统规划能够更有用地去除热量。假如数据中心运用Supermicro技能将其PUE下降至近1.0,不仅能节约高达100亿美元的动力本钱,而且相当于削减制作30座化石燃料发电厂。
Supermicro技能先进的冷却解决计划适用于不同系列的各种服务器,包括:
机架级集成是数据中心运营商所需的另一项中心竞争力。要想加快进步出产功率,就必须将随时可用的悉数机架及时交付给数据中心。Supermicro能够供给L11和L12服务器集群,它们经过了全面测验,包括客户运用程序,而且进行了恰当装备,能够在必要时完成大规模液体冷却。