最近觀望了強化學習在頂會上的表現(xiàn),發(fā)現(xiàn)RL+大模型組合、動態(tài)通信多智能體學習、自監(jiān)督RL、基于模型的RL+DMs這幾個方向比較好出成果(見下文)。
其他的,比如多模態(tài)輸入的RL任務(wù)等也不錯,想搞新興領(lǐng)域+細分的可以試試。不過無論選哪個方向,緊跟你同一方向的高質(zhì)量文章,分析它們的創(chuàng)新點和實驗設(shè)計,依然是快速找到突破口的關(guān)鍵。
本文整理了193篇強化學習前沿論文,基本涵蓋了當前強化學習的主流研究熱點,你想做的方向應(yīng)該都能找到參考,開源代碼也整理了,下面掃碼就能無償獲取。
![]()
掃碼添加小享,回復(fù)“強化161”
免費獲取全部論文+開源代碼
強化學習+大模型
現(xiàn)在與大模型結(jié)合在頂會(NeurIPS/ICLR/ICML)上屬于“流量密碼”,無論是將RL用于對齊微調(diào)(比如RLHF)、agent決策規(guī)劃,還是用LLM生成獎勵函數(shù)/環(huán)境,都容易產(chǎn)生novelty。
STARLING: Self-supervised Training of Text-based Reinforcement Learning Agent with Large Language Models
方法:論文提出 STARLING 方法,借助大語言模型(如 GPT3)自動生成聚焦特定技能的文本游戲作為自監(jiān)督預(yù)訓(xùn)練任務(wù),結(jié)合強化學習訓(xùn)練文本型強化學習智能體,提升其在目標文本游戲環(huán)境中的性能與泛化能力。
![]()
創(chuàng)新點:
借助GPT3與Inform7引擎,自動生成含特定技能訓(xùn)練的文本游戲,無需大量人工標注,快速構(gòu)建多樣化訓(xùn)練數(shù)據(jù)集。
提出STARLING自監(jiān)督環(huán)境,以生成游戲為輔助任務(wù)預(yù)訓(xùn)練TBRL代理,助力技能遷移,提升目標環(huán)境泛化能力。
采用模塊化生成流程,結(jié)合槽填充與k-shot示例,規(guī)范LLM輸出并轉(zhuǎn)化為游戲代碼,保障游戲可用性與靈活性。
多智能體系統(tǒng)本身是長期熱點,而GNN是多智能體系統(tǒng)中建模通信和協(xié)作圖結(jié)構(gòu)的核心技術(shù),引入動態(tài)圖通信能解決非穩(wěn)態(tài)、通信效率等問題,既符合分布式系統(tǒng)趨勢,又適合理論+實驗融合。
Optimizing Age of Information in Vehicular Edge Computing with Federated Graph Neural Network Multi-Agent Reinforcement Learning
方法:論文提出 FGNN-MADRL 方法,將圖神經(jīng)網(wǎng)絡(luò)(GNN)與多智能體深度強化學習(MADRL)結(jié)合,融入聯(lián)邦學習框架,通過構(gòu)建車路圖提取車輛特征、優(yōu)化聚合權(quán)重,實現(xiàn)車載邊緣計算中任務(wù)卸載的信息新鮮度(AoI)優(yōu)化。
![]()
創(chuàng)新點:
首次將道路場景構(gòu)建為車路圖數(shù)據(jù)結(jié)構(gòu),以路段為GNN節(jié)點、車車通信關(guān)系為邊,有效適配車輛數(shù)量動態(tài)變化的場景。
提出融合分布式本地聚合與集中式全局聚合的GNN聯(lián)邦學習框架,通過GNN提取車輛特征生成個性化聚合權(quán)重,兼顧模型個性化與穩(wěn)定性。
設(shè)計新型 MADRL 算法,車輛依自身觀測獨立決策,結(jié)合 SAC 算法提升動態(tài)場景適應(yīng)性。
掃碼添加小享,回復(fù)“強化161”
免費獲取全部論文+開源代碼
物理信息強化學習
常與Model-based RL結(jié)合,引入擴散模型等生成模型來學習復(fù)雜物理系統(tǒng)的動力學,實現(xiàn)高保真、概率性的環(huán)境建模。這塊實驗可驗證性比較強,在機器人操控、自動駕駛、流體控制等領(lǐng)域很火。
Reinforcement Learning with Physics-Informed Symbolic Program Priors for Zero-Shot Wireless Indoor Navigation
方法:論文提出 PiPRL 框架,將物理先驗編碼為領(lǐng)域特定語言(DSL)的符號程序,以神經(jīng)符號融合方式引導(dǎo)強化學習,提升無線室內(nèi)導(dǎo)航任務(wù)的樣本效率與零 - shot 泛化能力。
![]()
創(chuàng)新點:
用領(lǐng)域特定語言(DSL)將物理先驗編碼為符號程序,作為歸納偏置注入強化學習,兼具可讀性與可解釋性。
提出PiPRL神經(jīng)符號融合框架,通過感知模塊、符號程序模塊與RL控制模塊的分層協(xié)作,銜接物理先驗與實際控制。
設(shè)計程序引導(dǎo)RL機制,通過動作限制、獎勵校正等方式,讓RL在物理約束下搜索最優(yōu)策略,提升樣本效率與泛化性。
因為要緩解RL樣本效率低的根本問題,自監(jiān)督RL這賽道還是有很多機會的,就比如這個。Transformer在RL中的核心優(yōu)勢就是表征學習,通過自監(jiān)督預(yù)訓(xùn)練提升樣本效率和泛化。
MINEDOJO: Building Open-Ended Embodied Agents with Internet-Scale Knowledge
方法:論文提出 MINEDOJO 框架,基于 Minecraft 構(gòu)建含數(shù)千任務(wù)的開放環(huán)境與互聯(lián)網(wǎng)級知識庫,通過 Transformer 預(yù)訓(xùn)練的 MINECLIP 模型提供語言條件化獎勵,結(jié)合 PPO 與自模仿學習實現(xiàn)強化學習 agent 的多任務(wù)學習與泛化。
![]()
創(chuàng)新點:
構(gòu)建基于Minecraft的MINEDOJO框架,包含數(shù)千個自然語言描述的開放任務(wù),覆蓋生存、建造等多類型,支持通用agent訓(xùn)練。
打造互聯(lián)網(wǎng)規(guī)模多模態(tài)知識庫,整合百萬級YouTube視頻、Wiki頁面等,為agent提供海量任務(wù)相關(guān)先驗知識。
提出MINECLIP模型,基于Transformer進行視頻-文本對比預(yù)訓(xùn)練,生成語言條件化獎勵,結(jié)合PPO與自模仿學習提升RL訓(xùn)練效率。
掃碼添加小享,回復(fù)“強化161”
免費獲取全部論文+開源代碼
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.