注冊帳號丨忘記密碼?
1.點(diǎn)擊網(wǎng)站首頁右上角的“充值”按鈕可以為您的帳號充值
2.可選擇不同檔位的充值金額,充值后按篇按本計(jì)費(fèi)
3.充值成功后即可購買網(wǎng)站上的任意文章或雜志的電子版
4.購買后文章、雜志可在個(gè)人中心的訂閱/零買找到
5.登陸后可閱讀免費(fèi)專區(qū)的精彩內(nèi)容
打開文本圖片集
摘要: 在深度強(qiáng)化學(xué)習(xí)算法中, 近端策略優(yōu)化算法PPO(Proximal Policy Optimization)在許多實(shí)驗(yàn)任務(wù)中表現(xiàn)優(yōu)異, 但具有自適應(yīng)KL(Kullback-Leibler)散度的KL-PPO 由于其不對稱性而影響了KL-PPO 策略更新效率,為此, 提出了一種基于相關(guān)熵誘導(dǎo)度量的近端策略優(yōu)化算法CIM-PPO (Correntropy Induced Metric-PPO)。(剩余6395字)
登錄龍?jiān)雌诳W(wǎng)
購買文章
基于相關(guān)熵誘導(dǎo)度量的近端策略優(yōu)化算法
文章價(jià)格:5.00元
當(dāng)前余額:100.00
閱讀
您目前是文章會員,閱讀數(shù)共:0篇
剩余閱讀數(shù):0篇
閱讀有效期:0001-1-1 0:00:00
違法和不良信息舉報(bào)電話:400-106-1235
舉報(bào)郵箱:[email protected]