科華數(shù)據(jù) · 液冷技術(shù)

11月7日,在ChatGPT推出近一年后,美國人工智能公司OpenAI舉行了首屆開發(fā)者大會(huì)。大會(huì)上,OpenAI的首席執(zhí)行官宣布了GPT-4、ChatGPT的重磅更新:ChatGPT的周活用戶數(shù)達(dá)到1億人,已經(jīng)有200萬開發(fā)者正在使用OpenAI的API(應(yīng)用程序接口),92%的財(cái)富500強(qiáng)公司正在使用OpenAI的產(chǎn)品搭建服務(wù)。



AI大模型飛速增長,帶來的是算力的高需求,人工智能訓(xùn)練任務(wù)中使用的算力正呈著指數(shù)級(jí)增長,GPU單顆芯片功耗逐漸增大,如NVIDIA 2023年Q1發(fā)布的HGX Grace Hopper Superchip Platform,其TDP高達(dá)1000W,以單臺(tái)機(jī)8卡計(jì)算,一臺(tái)服務(wù)器或?qū)⑦_(dá)到10KW左右,解決GPU散熱問題迫在眉睫。

硬件算力的提升一直是人工智能快速發(fā)展的重要因素。如果按照現(xiàn)在AI大模型的發(fā)展趨勢(shì),以此為據(jù)進(jìn)行推算,就會(huì)發(fā)現(xiàn)一個(gè)棘手的問題,我們要滿足超高算力需求,就需要用全新的系統(tǒng)以及技術(shù)來保障高算力行業(yè)的健康發(fā)展。

數(shù)據(jù)中心作為算力的承載者,體積愈發(fā)龐大,大型數(shù)據(jù)中心成為未來的發(fā)展趨勢(shì),伴隨著大型數(shù)據(jù)中心增長,新技術(shù)的涌現(xiàn)也尤為火熱。液冷數(shù)據(jù)中心面對(duì)高算力需求,從容不迫,帶來最佳解決方案,讓類似AI大模型此類高算力行業(yè)得以施展拳腳。

液冷作為一種高效的冷卻技術(shù),可以解決高功率、高熱流密度、高計(jì)算密度的芯片和系統(tǒng)散熱問題。液冷技術(shù)利用液體高比熱容/蒸發(fā)潛熱優(yōu)勢(shì),實(shí)現(xiàn)對(duì)發(fā)熱元器件精準(zhǔn)散熱,完美解決高功率密度機(jī)柜散熱問題,經(jīng)過幾十年發(fā)展,已被廣泛認(rèn)為是解決散熱挑戰(zhàn)最行之有效的方法。

科華液冷技術(shù)利用液冷散熱優(yōu)勢(shì),推出了液冷數(shù)據(jù)中心全生命周期服務(wù),其液冷解決方案幫助數(shù)據(jù)中心高密服務(wù)器解決散熱問題,冷板式和浸沒式液冷解決方案,通過液冷機(jī)柜、內(nèi)部循環(huán)模組、換熱冷卻、內(nèi)外控制等設(shè)備,直接為服務(wù)器關(guān)鍵發(fā)熱元件進(jìn)行熱交換。



科華板式液冷微模塊數(shù)據(jù)中心可實(shí)現(xiàn)15kW/柜以上的高功率密度散熱需求,各功能部件預(yù)安裝及預(yù)調(diào)試,進(jìn)場即用,交付速度提升50%,模塊化設(shè)計(jì),可靈活配置,滿足快速擴(kuò)容需要,實(shí)時(shí)監(jiān)測相關(guān)動(dòng)環(huán)設(shè)備,各設(shè)備關(guān)鍵信息一目了然。

液冷技術(shù)大幅提升了算力輸出能力,使服務(wù)器可以在相對(duì)的低溫環(huán)境中滿載運(yùn)行。避免設(shè)備局部熱點(diǎn)的同時(shí),甚至可以超頻運(yùn)行,其可靠性得到大幅提升,由此高算力的輸出,有了穩(wěn)定可靠的保障。

算力作為核心生產(chǎn)力,推動(dòng)著各行各業(yè)的發(fā)展,如何讓算力綠色穩(wěn)定,支持高算力行業(yè)快速發(fā)展,也是科華人一直在思考的問題,液冷技術(shù)作為數(shù)據(jù)中心高新技術(shù),解決數(shù)據(jù)中心散熱痛點(diǎn),科華數(shù)據(jù)將繼續(xù)利用其數(shù)據(jù)中心全生命周期服務(wù)優(yōu)勢(shì),強(qiáng)力打造大型液冷數(shù)據(jù)中心項(xiàng)目落地,推動(dòng)高算力行業(yè)綠色健康發(fā)展。