3月4日消息,英伟达H200预计于今年第二季度正式上市,同时,英伟达已经下单投片生产B100,戴尔的一位高管在上周财报电话会议上透露,英伟达将于2025年推出旗舰AI计算芯片B200。
图源:NVIDIA英伟达GPU计算官博
据报道,H200和B100将分别采用台积电先进的4nm和3nm制程技术,B100将采用创新的Chiplet设计架构。B200并未出现在英伟达公布的路线图中,有猜测称,英伟达可能是先向戴尔等大型合作伙伴透露了相关信息。
人工智能高速发展的大潮下,英伟达数据中心业务收入呈倍数增长。英伟达2024财年第四季度财报显示,数据中心收入从去年同期的36亿美元飙升至184亿美元,增长率超过400%,在英伟达总营收中占比高达83%。
未来前景也极为广阔,英伟达CEO黄仁勋认为,通用人工智能(AGI)最快将在五年内到来;计算的能力将继续提升,在未来十年中提高100万倍。
这一情况下,英伟达在数据中心业务上持续投入,据韩媒去年12月报道,英伟达已向存储芯片大厂SK海力士、美光预付了超过10亿美元的订单,为H200和B100的HBM3E内存确保足够的库存。这同样推动了GPU的快速研发与更迭,H200、B100、B200的出现均是为更好地满足算力需求。
不过,GPU的更新带来的高功耗不容忽视。报道称,B200单张功耗可达1000W。H100的整体功耗约为700W,B200功耗较H100增加40%以上。资料显示,一台服务器可以支持多个GPU,高端服务器最多支持8个GPU。换句话说,搭载了B200的单台服务器功耗将达到8000W。
这意味着数据中心散热也需要提升效率,根据目前技术手段来看,液冷成为优质选择。液冷在单位时间内能够带走的热量是空气冷却的3000倍,且相关技术发展已经日趋成熟,拥有着广阔的市场空间,受到了资金的青睐和追捧。
同时,新能源、更多节能技术也正进入数据中心,以更好的推动能源的高效利用,提高机房IT利用率,减少碳排放,促进数据中心绿色发展。