美國人工智慧研究實驗室OpenAI推出聊天機器人ChatGPT後,被視為是人工智慧的重大突破。然而,英國期刊《經濟學人》指出,生成式人工智慧需要耗費巨大的電力,而全球能源系統正努力因應替代能源需求,目前尚不清楚是否有足夠的清潔能源來滿足每個人的需求。
《經濟學人》(The Economist)指出,未來3大經濟轉型一部分取決於能否解決能源難題,這3大轉型分別是人工智慧革命、實現經濟的電氣化、對抗氣候變遷的鬥爭。乍看之下,解決方案似乎很簡單。過去10年左右,美國搜尋引擎巨擘谷歌(Google)母公司字母公司(Alphabet)、電商巨擘亞馬遜(Amazon)、科技巨擘微軟(Microsoft)等公司提供雲端運算服務的資料中心僅占全球能源需求的1%至2%。多年來,即使全球運算工作負載激增,大型科技「超大規模資料中心業者」仍從其伺服器群組獲得越來越高的能源效率。
此外,這些業者也大力投資清潔能源以抵消碳足跡。超大規模資料中心業者的電力供應商非常熱衷於提供協助,他們經歷了20年的電力需求疲軟,迫切需要新的成長來源。最近的法說會上,這些電力公司的老闆承諾在未來5年內投資數百億美元,為資料中心提供更多電力。上個月,美國「塔倫能源」在內的電力公司以6.5億美元(約新台幣212億元)的價格將一座核動力數據中心出售給亞馬遜。
然而,生成式人工智慧(generative AI)讓情況改變了。加密貨幣需要圖形處理器(GPU,用於訓練及運行ChatGPT等模型的晶片),而圖形處理器必須耗費大量能源。出租數據中心的美國網際網路連接服務公司(Equinix)全球永續部門副總威里斯(Cristopher Wellise)表示,一個預人工智慧超大規模伺服器機架使用10瓩至15瓩的電力,一台人工智慧用電40瓩至60瓩。
消耗電力的不僅是運算,冷卻圖形處理器的主機同樣需要的大量電力。此外,過去1年許多與人工智慧相關的能源需求都來自「基礎」模型的訓練器,例如OpenAI的最新模型GPT-4,ChatGPT搜尋消耗的電量可能是Google搜尋的10倍,而這些工具的廣泛使用可能為電網帶來更多壓力,
《經濟學人》指出,現在還處於生成式人工智慧熱潮的早期階段,因此現在做出確實且快速的預測還為時過早,但根據情報所做出的能源需求相關成長猜測結果很驚人。國際能源署(International Energy Agency)表示,到了2026年,數據中心的能源消耗量可能是2年前的2倍,相當於日本目前的能源消耗量,預計未來2年數據中心將占美國新增電力需求的3分之1。英國晶片商「安謀」(Arm)執行長哈斯(Rene Haas)近日向《華爾街日報》(Wall Street Journal)表示,到本世紀末,人工智慧數據中心消耗的電力將占美國總電力的4分之1,而目前這個比例僅為4%以下。