算电协同、高密液冷、国产芯片……算力黑科技与创新应用一览
当前,人工智能技术及生态迭代加快,大模型产品及应用层出不穷,对智能算力提出更强性能、更大规模、更低成本的需求。作为关键环节与核心底座,以智算中心为代表的智能算力基础设施,呈现哪些创新技术与趋势,多模态大模型发展如何,本文带你一览。
大模型不断迭代创新
今年7月,中国信息通信研究院发布《全球数字经济白皮书(2024年)》显示,全球人工智能大模型共1328个。人工智能在很多领域里正在释放潜力,可以应用到工业、医疗、能源、城市、交通等领域中。
从文字生成到图片生成、视频生成,大模型不断迭代,由单模态像多模态发展,极大增加了智能算力需求,也给AI赋能千行百业带来变革。
就在当地时间12月9日,OpenAI推出最新版本的视频生成大模型Sora-Turbo。新版Sora可生成最高1080p分辨率、最长20秒、宽屏、竖屏或方形的视频,用户可以利用资源进行扩展、remix、融合,也可基于文本生成全新的内容。OpenAI开发了全新的UI界面,并提供故事板工具让用户可以精准地指定每个帧的输入。目前新版Sora的单视频平均生成价格约0.4美元,该公司CEOSam Altam表示“大家可以将Sora看作视频版的GPT-1”。
业内人士认为,视频生成模型在今年有了长足进展,因此Sora-Turbo上线相比首次发布时带来的冲击较弱。本次迭代上线在基础模型能力上并没有太多亮点,生成速度在分钟级左右,估算相关算力成本并没有降低。有大模型从业者表示,仅看技术指标,国内现有视频生成模型并不比sora差。
智算崛起背后的用电挑战
智算带来惊人的能源消耗,带来高额成本,更让企业想不到的是,有一天“电从哪里来”成为新挑战。
据中国信通院测算,截至2023年底,全球算力基础设施总规模达到910EFLOPS(FP32),同比增长40%。美国、中国算力基础设施规模位列前两名,算力占比分别为32%、26%。高算力背后是高电力。拥GPT4.0训练需要经过三个月,使用2.5万块GPU芯片,仅一次训练就消耗了2.4亿度电。在推理阶段,大模型的耗电量同样不容小觑。
为满足新增能源需求及成本要求,美国科技企业盯上了核能直接向数据中心供电:
今年10月,谷歌宣布着手与核电企业签署协议,争取截至2030年起通过核电站实现快速安全供电,“这项协议将提供500兆瓦全天候无碳电力”。
日前,Mate发布征求建议书,表示计划在2030年代初新增1-4GW的核能发电能力,并就此向有关核开发商寻求合作,以支持数据中心及其周边供电的电网增长需求。
然而,这样核电站直连数据中心供电的趋势,已经引发一些美国电网公司反弹,并被美能源部门“重点关注”。
今年11月初,美国“核电厂+数据中心”的标杆性交易——被美国联邦能源管理委员会否决,该交易涉及6.5亿美元以上,能源公司Talen出售核电站旁的数据中心园区(960MW)给亚马逊,并长期供应核电。
电力卖方直接与买方进行电力交易,无需通过电网,这种交易行为被形象的称为“隔墙售电”。在中国,这样的数据中心用电方式,正在被鼓励。
8月6日,国家发展改革委、国家能源局和国家数据局联合印发《加快构建新型电力系统行动方案(2024~2027年)》提到:数据中心通过建设配套可再生能源电站、与可再生能源发电企业直接开展电力交易等方式,降低运营成本,实现能源消费结构优化及东、西部电力资源互补和优化配置。
11月28日,国家能源局发布《关于支持电力领域新型经营主体创新发展的指导意见》,指出“新型经营主体原则上可豁免申领电力业务许可证,明确提出支持“隔墙售电”等新型电力交易模式。
绿色节能除了液冷还有这些
随着GPU芯片快速演进,功率快速攀升,传统的风冷模式很难满足散热需求,更高换热效率的液冷正逐渐被数据中心和大模型企业接受。
这一背景下,成本与实施难度更低的冷板式液冷最先被IDC企业等接受,而由于GPU芯片的迅猛发展,散热效率更高的浸没式液冷也一改过去的“冷遇”,产业链上游、中游持续推出浸没式液冷服务器、冷却液等新品。
与此同时,在液冷之外,数据中心还开展了更精密空调、无水等绿色节能探索。
传统数据冷却系统采用水蒸发冷却方式降低能源需求,微软云服务部门此前介绍了下一代“0水蒸发数据中心设计”,采用新型芯片级冷却解决方案,配备更高效水冷机,支持更高运行水温,整体冷却系统采用闭环水路,可实现服务器和冷却器之间的冷却水流循环,一旦在建设过程中填充完毕就无需新鲜水源填充。这样的数据中心每年可节约1.25亿升用水。
在自然资源适合的“东数西算”集群,亦有数据中心采用全变频氟泵自然冷精密空调进行更节能的制冷。通过智慧控制系统,实施监测各参数性能,动态调整制冷模式,智能适应四季变化,实现最佳节能匹配。同时采用无水化设计,通过高效风侧自然冷技术消除水资源的消耗。
更多技术创新与应用实践,尽在IDCC2024【算力技术创新与应用论坛】