人工智能模型的LLM必須以AI data center 處理大量計算及儲存資料,其硬件使用數以千計的GPU或TPU的處理器每秒執行數十億次計算,消耗大量的電力,同時產生大量的熱量,需要有效的冷卻系統來保持安全和高效的運作。
當AI的使用量上升,處理的數據量和算力需求都大幅增加,這些 AI data centre 7/24運作,用電量和發出的熱大幅高於現時web 2寡頭壟斷的幾間美國科技巨企,這是無庸置疑的,否則美國也不需思算加建核電廠以配合AI 的發展,而最惹人關注的是用以冷卻系統的,究竟用水量是幾多?
Meta公司計劃建設一個佔地有如美國Manhattan 大小的Data Centre,令人擔心AI Data centre 的用電量和用水量對人類的損害?
冷卻AI data centre硬件系統的不是用液體冷卻和浸入式冷卻嗎?事實上,AI在訓練和推理過程中需要巨大的計算能力,數據中心的使用量導致耗電量和熱量增加,新技術仍然無法避免消耗用水量:
1)因為系統出口仍然需要用水冷卻
2)沿用舊設施,以水直接冷卻,成本較低。
3)水被蒸發來冷卻數據中心的空氣,通常與傳統的暖氣、通風和冷氣機系統結合使用。
4)新冷卻技術還未普及
引起人們廣乏關注的是許多數據中心位於已經經歷水資源短缺的地區。 使用飲用水冷卻加劇了這個問題,與當地社群和農業爭奪水的關鍵資源。
根據DW news的記錄片討論AI數據中心正在加劇全球水資源短缺。 該影片探討了來自烏拉圭、智利、美國和瑞典的真實例子,揭示了數據中心驚人的用水需求——以及它們正在引發的地方衝突和抗議。 為什麼Server farm經常建在乾旱多的地區? 亞馬遜、谷歌和微軟等公司扮演什麼角色?
當使用AI的成本巨大,無論是耗電量或用水量,涉及的是地球有限資源,使用AI便應該用得其所。DW的記錄片探討了如何可以平衡環境保護和技術進步,他們提議減少使用AI作為搜尋引擎等方式以增加AI的使用效率,這又回到我在第一篇文章問的問題,現時的科技巨頭應用AI的方向是否正確?(下篇再談)
https://youtu.be/cl1ctf1_JxE?si=eXiC-c6l4nV7OHLE
沒有留言:
發佈留言
請留回應!