C114通信網(wǎng)  |  通信人家園

專題
2024/9/9 15:24

基于大型語(yǔ)言模型微調(diào)技術(shù)的反詐騙信息識(shí)別方法研究

郵電設(shè)計(jì)技術(shù)  彭成智,謝園園,呂光旭

本文版權(quán)為《郵電設(shè)計(jì)技術(shù)》所有,如需轉(zhuǎn)載請(qǐng)聯(lián)系《郵電設(shè)計(jì)技術(shù)》編輯部

摘要:針對(duì)反詐騙信息識(shí)別,對(duì)大型語(yǔ)言模型(LLMs)的微調(diào)技術(shù)進(jìn)行了深入的實(shí)驗(yàn)研究。選取了3種不同規(guī)模的LLMs基礎(chǔ)模型,并采用了LoRA和p-tuningv22種先進(jìn)的微調(diào)技術(shù),以適應(yīng)特定的反詐騙信息識(shí)別任務(wù)。通過(guò)多個(gè)維度的實(shí)驗(yàn)評(píng)估,微調(diào)策略不僅能夠顯著提升模型在反詐騙信息識(shí)別上的性能,還能夠在一定程度上保持模型的通用性。此外,探討了LLMs在少樣本情況下的學(xué)習(xí)能力,并分析了不同微調(diào)策略下的資源消耗情況。

關(guān)鍵詞:大型語(yǔ)言模型;微調(diào)技術(shù);反詐騙信息識(shí)別;LoRA;p-tuning v2;少樣本學(xué)習(xí)

doi:10.12045/j.issn.1007-3043.2024.08.011

前言

在數(shù)字化時(shí)代,網(wǎng)絡(luò)詐騙給信息安全帶來(lái)了挑戰(zhàn)。大型語(yǔ)言模型(Large Language Models,LLMs)在自然語(yǔ)言處理(Natural Language Processing,NLP)領(lǐng)域,特別是基于Transformer的模型,對(duì)文本分析和模式識(shí)別顯示出潛力。然而,直接訓(xùn)練LLMs成本高,微調(diào)成為適應(yīng)特定任務(wù)的有效策略。本研究評(píng)估了LoRA(Low-Rank Adaptation)和p-tuning v2微調(diào)技術(shù),為L(zhǎng)LMs在反詐騙任務(wù)中的應(yīng)用提供了實(shí)證基礎(chǔ)和研究方向。

點(diǎn)擊查看全文(PDF)>

給作者點(diǎn)贊
0 VS 0
寫得不太好

免責(zé)聲明:本文僅代表作者個(gè)人觀點(diǎn),與C114通信網(wǎng)無(wú)關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對(duì)本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時(shí)性本站不作任何保證或承諾,請(qǐng)讀者僅作參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。

熱門文章
    最新視頻
    為您推薦

      C114簡(jiǎn)介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機(jī)版

      Copyright©1999-2024 c114 All Rights Reserved | 滬ICP備12002291號(hào)

      C114 通信網(wǎng) 版權(quán)所有 舉報(bào)電話:021-54451141