IT之家從豆包大模型團隊獲悉,UI-TARS-1.5 昨日正式發(fā)布并開源。這是一款基于視覺-語言模型構建的開源多模態(tài)智能體,能夠在虛擬世界中高效執(zhí)行各類任務。
有關的鏈接如下:
GitHub:https://github.com/bytedance/UI-TARS
Website:https://seed-tars.com/
Arxiv:https://arxiv.org/abs/2501.12326
UI-TARS-1.5 基于字節(jié)此前提出的原生智能體方案 UI-TARS,通過強化學習進一步增強了模型的高階推理能力,使模型能夠在“行動”前先進行“思考”。
該版本的模型中,團隊還展示了一個新的愿景:以游戲為載體來增強基礎模型的推理能力。與數(shù)學、編程等領域相比,游戲更多依賴直觀的、常識性的推理,并較少依賴專業(yè)知識,因此,游戲通常是評估和提升未來模型通用能力的理想測試場景。
據(jù)介紹,UI-TARS 是一個原生 GUI 智能體,具備真實操作電腦和手機系統(tǒng)的能力,同時,還可操控瀏覽器、完成復雜交互任務。UI-TARS-1.5 能夠實現(xiàn)精準 GUI 操作,基于團隊在四個維度的技術探索:
視覺感知增強:依托大規(guī)模界面截圖數(shù)據(jù),模型可理解元素的語義與上下文,形成精準描述。
System 2 推理機制:在動作前生成“思維(thought)”,支持復雜任務的多步規(guī)劃與決策。
統(tǒng)一動作建模:構建跨平臺標準動作空間,通過真實軌跡學習提升動作可控性與執(zhí)行精度。
可自我演化的訓練范式:通過自動化的交互軌跡采集與反思式訓練,模型持續(xù)從錯誤中改進,適應復雜環(huán)境變化。