C114通信網(wǎng)  |  通信人家園

人工智能
2025/3/20 08:57

感謝 DeepSeek:Predibase 發(fā)布全球首個端到端強(qiáng)化微調(diào)平臺并開源,支持無服務(wù)器和端到端訓(xùn)練方法

IT之家  問舟

昨日晚間,大模型訓(xùn)練、開發(fā)平臺 Predibase 發(fā)布了一個完全托管、無服務(wù)器、端到端的強(qiáng)化微調(diào)平臺,也是首個端到端強(qiáng)化微調(diào)(RFT)平臺。

Predibase 表示,DeepSeek-R1 的開源在全球 AI 領(lǐng)域產(chǎn)生了巨大影響,讓很多人意識到強(qiáng)化學(xué)習(xí)微調(diào)對訓(xùn)練大模型的重要性。受此啟發(fā),他們開發(fā)了這個端到端無服務(wù)器強(qiáng)化微調(diào)平臺。

與傳統(tǒng)的監(jiān)督式微調(diào)相比,RFT 不依賴大量的標(biāo)注數(shù)據(jù),而是通過獎勵和自定義函數(shù)來完成持續(xù)地強(qiáng)化學(xué)習(xí),同時支持無服務(wù)器和端到端訓(xùn)練方法,從數(shù)據(jù)管理、訓(xùn)練模型到應(yīng)用部署可以在同一個平臺完成。用戶只需要一個瀏覽器,設(shè)定微調(diào)目標(biāo)、上傳數(shù)據(jù)、就能完成以前非常復(fù)雜的大模型微調(diào)流程。

為了展示 RFT 的強(qiáng)大,Predibase 基于阿里 Qwen2.5-Coder-32B-instruct 微調(diào)了一個專門用于將 PyTorch 代碼翻譯為 Triton 的模型 Predibase-T2T-32B-RFT,并根據(jù)其他更大的基礎(chǔ)模型(包括 DeepSeek-R1、Claude 3.7 Sonnet 和 OpenAI o1)對內(nèi)核正確性進(jìn)行了基準(zhǔn)測試。

與傳統(tǒng)的監(jiān)督式微調(diào)方法不同,Predibase-T2T-32B-RFT 利用 RFT 以交互方式調(diào)整模型行為,以最少的標(biāo)記數(shù)據(jù)優(yōu)化下游任務(wù)質(zhì)量。這使其成為專有 LLM 的高性價比、高性能替代方案。

通過 RFT,Predibase 在訓(xùn)練過程結(jié)合了冷啟動監(jiān)督式微調(diào)、強(qiáng)化學(xué)習(xí)和課程學(xué)習(xí),并且只使用了十幾個標(biāo)記數(shù)據(jù)點(diǎn)。

在 Kernelbench 數(shù)據(jù)集上進(jìn)行的基準(zhǔn)測試顯示,Qwen2.5-Coder-32B-instruct 經(jīng)過強(qiáng)化后,其正確率比 DeepSeek-R1 和 OpenAI 的 o1 高出 3 倍,比 Claude 3.7 Sonnet 高出 4 倍以上,而模型占用的空間卻小了一個數(shù)量級。

附開源地址:

https://huggingface.co/predibase/Predibase-T2T-32B-RFT

在線體驗(yàn)地址:

https://predibase.com/reinforcement-fine-tuning-playground

給作者點(diǎn)贊
0 VS 0
寫得不太好

免責(zé)聲明:本文僅代表作者個人觀點(diǎn),與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實(shí)相關(guān)內(nèi)容。

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機(jī)版

      Copyright©1999-2025 c114 All Rights Reserved | 滬ICP備12002291號

      C114 通信網(wǎng) 版權(quán)所有 舉報電話:021-54451141