資訊
`
2025/5/15 08:38
Meta 推出 CATransformers 框架,AI 減排新利器
0
0

科技媒體 marktechpost 昨日(5 月 14 日)發(fā)布博文,報道稱 Meta AI 旗下 FAIR 團隊攜手佐治亞理工學院,合作開發(fā) CATransformers 框架,將碳排放作為核心設計考量,通過聯(lián)合優(yōu)化模型架構(gòu)與硬件性能,顯著降低總碳足跡,為可持續(xù) AI 發(fā)展邁出重要一步。

機器學習技術(shù)的普及推動了從推薦系統(tǒng)到自動駕駛的革新,但其環(huán)境代價不容小覷。這些系統(tǒng)需要強大計算資源,常依賴定制硬件加速器運行,訓練和推理階段的高能耗直接導致運營碳排放攀升。

此外,硬件從制造到報廢的全生命周期也產(chǎn)生“隱含碳”,加劇生態(tài)負擔。隨著全球各行業(yè)加速采用 AI 技術(shù),解決運營與隱含碳的雙重來源成為迫切需求。

當前減排方法主要集中于提升運營效率,例如優(yōu)化訓練和推理的能耗,或提高硬件利用率。但這些方法往往忽略硬件設計和制造階段的碳排放,未能整合模型設計與硬件效率的相互影響。

Meta 的 FAIR 團隊與佐治亞理工學院聯(lián)合推出的 CATransformers 框架,將碳排放納入核心設計考量。該框架通過多目標貝葉斯優(yōu)化引擎,聯(lián)合評估模型架構(gòu)與硬件加速器的性能,平衡延遲、能耗、精度和總碳足跡。

特別針對邊緣推理設備,CATransformers 通過剪枝大型 CLIP 模型生成變體,并結(jié)合硬件估算工具分析碳排放與性能。其成果 CarbonCLIP-S 與 TinyCLIP-39M 精度相當,但碳排放降低 17%,延遲控制在 15 毫秒內(nèi);CarbonCLIP-XS 則比 TinyCLIP-8M 精度提升 8%,碳排放減少 3%,延遲低于 10 毫秒。

研究顯示,單純優(yōu)化延遲的設計可能導致隱含碳增加高達 2.4 倍,而綜合優(yōu)化碳排放與延遲的策略可實現(xiàn) 19-20% 的總排放削減,且延遲損失極小。

 

 

CATransformers 通過嵌入環(huán)境指標,為可持續(xù)機器學習系統(tǒng)設計奠定基礎(chǔ)。這表明,AI 開發(fā)若從一開始就結(jié)合硬件能力與碳影響考量,可實現(xiàn)性能與可持續(xù)性的雙贏。隨著 AI 規(guī)模持續(xù)擴大,該框架為行業(yè)提供了切實可行的減排路徑。

免責聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。

給作者點贊
0 VS 0
寫得不太好

C114簡介     聯(lián)系我們     網(wǎng)站地圖

Copyright©1999-2025 c114 All Rights Reserved 滬ICP備12002291號-4

C114通信網(wǎng)版權(quán)所有 舉報電話:021-54451141 用戶注銷