注冊帳號丨忘記密碼?
1.點擊網(wǎng)站首頁右上角的“充值”按鈕可以為您的帳號充值
2.可選擇不同檔位的充值金額,充值后按篇按本計費
3.充值成功后即可購買網(wǎng)站上的任意文章或雜志的電子版
4.購買后文章、雜志可在個人中心的訂閱/零買找到
5.登陸后可閱讀免費專區(qū)的精彩內(nèi)容
打開文本圖片集
關(guān)鍵詞:大語言模型;微調(diào)優(yōu)化;遷移學習
中圖分類號:TP312 文獻標志碼:A
0 引言(Introduction)
近年來,大型語言模型[1]的出現(xiàn)和發(fā)展對自然語言處理和人工智能領(lǐng)域產(chǎn)生了變革性影響。自GPT-3(Generative Pre-Trained Transformer v3)問世以來,逐漸涌現(xiàn)出一批具有強大競爭力的語言模型,例如ChatGPT[2]、Meta LLaMA[3]、文心一言、盤古大模型等。(剩余3282字)
登錄龍源期刊網(wǎng)
購買文章
基于遷移學習的LLaMA 2大語言模型微調(diào)優(yōu)化方法
文章價格:4.00元
當前余額:100.00
閱讀
您目前是文章會員,閱讀數(shù)共:0篇
剩余閱讀數(shù):0篇
閱讀有效期:0001-1-1 0:00:00
違法和不良信息舉報電話:400-106-1235
舉報郵箱:[email protected]