注冊(cè)帳號(hào)丨忘記密碼?
1.點(diǎn)擊網(wǎng)站首頁右上角的“充值”按鈕可以為您的帳號(hào)充值
2.可選擇不同檔位的充值金額,充值后按篇按本計(jì)費(fèi)
3.充值成功后即可購買網(wǎng)站上的任意文章或雜志的電子版
4.購買后文章、雜志可在個(gè)人中心的訂閱/零買找到
5.登陸后可閱讀免費(fèi)專區(qū)的精彩內(nèi)容
摘 要:隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,自然語言處理(NLP)領(lǐng)域的預(yù)訓(xùn)練模型已經(jīng)取得了顯著的成功。尤其是基于Transformer模型的預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,已經(jīng)成為了一種主導(dǎo)的技術(shù)。本文綜述了基于 Transformer 模型的預(yù)訓(xùn)練模型的發(fā)展歷程、原理和應(yīng)用,重點(diǎn)討論了Transformer模型。BERT、GPT模型以及Transformer模型的開源實(shí)現(xiàn)。(剩余6704字)
登錄龍?jiān)雌诳W(wǎng)
購買文章
基于Transformer模型的預(yù)訓(xùn)練模型綜述
文章價(jià)格:5.00元
當(dāng)前余額:100.00
閱讀
您目前是文章會(huì)員,閱讀數(shù)共:0篇
剩余閱讀數(shù):0篇
閱讀有效期:0001-1-1 0:00:00
違法和不良信息舉報(bào)電話:400-106-1235
舉報(bào)郵箱:[email protected]