AI制圖
輕松掃碼 科普一下
近日,一則“人工智能已對(duì)全球電力系統(tǒng)造成嚴(yán)重破壞”的報(bào)道,引發(fā)公眾對(duì)AI能耗的擔(dān)憂。
AI到底有多耗電?
中國(guó)科學(xué)院計(jì)算技術(shù)研究所工程師劉延嘉接受科普時(shí)報(bào)記者采訪時(shí)表示,AI的耗電主要集中在模型訓(xùn)練和推理兩方面。一般來(lái)說(shuō),參數(shù)量越大,大模型的算力消耗就越大,其消耗的電能就越多。以GPT-3大模型為例,其訓(xùn)練耗電總量大約為1280兆千瓦時(shí),也就是128萬(wàn)度電,相當(dāng)于6400個(gè)中國(guó)普通家庭一個(gè)月的用電量。
在推理階段的耗電量同樣不容小覷。劉延嘉說(shuō):“推理是大模型響應(yīng)用戶需求的過(guò)程,雖然AI推理階段單次能耗比訓(xùn)練階段低,但由于高頻調(diào)用,電力消耗也相當(dāng)驚人。”在全球已推出的數(shù)百個(gè)AI大模型中,僅ChatGPT每天就要消耗50萬(wàn)千瓦時(shí)電力來(lái)響應(yīng)用戶超2億的應(yīng)用需求。隨著全球用戶數(shù)量、使用頻率的增加,耗電量也將不斷累積。
據(jù)國(guó)際能源署發(fā)布的《電力2024》報(bào)告預(yù)測(cè),到2026年,全球數(shù)據(jù)中心每天的用電量將達(dá)到1.05萬(wàn)億千瓦時(shí),大約是整個(gè)日本全年的用電量。當(dāng)下AI應(yīng)用范圍越來(lái)越廣,其對(duì)全球電力系統(tǒng)的“壓榨”還將進(jìn)一步凸顯。
如何應(yīng)對(duì)AI耗電問(wèn)題?
“最直接的解決方案是從供應(yīng)端入手,不斷增加供電量,以解決AI耗電問(wèn)題。”劉延嘉表示,風(fēng)電、光電及儲(chǔ)能技術(shù)已經(jīng)成為重要突破口,并取得了長(zhǎng)足的發(fā)展。
在需求端,包括算法優(yōu)化、硬件改進(jìn)和能源管理等方面都有節(jié)能潛力可以挖掘。算法優(yōu)化可以在不顯著降低AI性能的情況下,減少計(jì)算量和能耗。劉延嘉建議,包括芯片在內(nèi)的硬件改進(jìn),是解決AI耗電問(wèn)題的重要途徑,未來(lái)量子計(jì)算、光子計(jì)算等新型計(jì)算技術(shù)也可大幅提升計(jì)算效率,減少能耗。
此外,劉延嘉介紹,在AI數(shù)據(jù)中心能源管理上,積極轉(zhuǎn)向可再生能源供電、使用先進(jìn)的冷卻技術(shù)和智能電力管理系統(tǒng),都能有效降低AI的能耗。
編輯:吳桐