微軟、谷歌和Meta正在投資數十億美元開發生成型人工智能(AI),如在加州舊金山發布的大語言模型ChatGPT。這些模型具備的特點使得它們比之前的模型更加強大,但也對環境造成了更重的負擔。近日在Nature上發布的一篇短訊文章,提出了一個更可持續的生成型AI開發框架。文章指出復雜度的增加可以讓大型語言模型產生智能文本,但消耗的電力會遠高于之前的版本。根據2022年發貨的AI訓練專用GPU數量,全年總計可能消耗約95億度電力。這一能耗水平約等于一個中等發達國家100萬人口的年度生產和生活用電需求。隨著硬件變得越來越復雜,巨大數據集訓練速度和容量增長的同時,必將推動產生新的能源需求。因此開發生成型AI時,可以通過調整模型的結構、推廣節能硬件、使用
清潔能源和優化AI模型運作方式來減少無效訓練的數量,達到減少
碳排放的效果。
【版權聲明】本網為公益類網站,本網站刊載的所有內容,均已署名來源和作者,僅供訪問者個人學習、研究或欣賞之用,如有侵權請權利人予以告知,本站將立即做刪除處理(QQ:51999076)。