強化学習(DQN)で​学習した方策(Q-N​etwork)の保存​方法について

조회 수: 12 (최근 30일)
一馬 平田
一馬 平田 2021년 10월 31일
댓글: 一馬 平田 2021년 11월 1일
お世話になります。
rlQValueRepresetationにて学習済みのQ-networkを呼び出したいのですが、
強化学習(DQN)で学習した方策(Q-Network)はどうように保存すればよいでしょうか。
rlTrainingOptionsでエージェントを保存できることは確認致しましたが、学習済みのQ-Networkを確認することは出来ませんでした。
私の確認不足により、もし、rlTrainingOptionsで学習済みのQ-Networkが保存可能な場合、Q-Networkの呼び出し方法を教え頂けないでしょうか。

채택된 답변

Toshinobu Shintai
Toshinobu Shintai 2021년 10월 31일
エージェントによって形式が変わってきますが、基本的には「agent」オブジェクトの中に学習済みの方策は格納されています。
コマンドとしては「getModel」というコマンドで取り出すことができます。Actor-Critic形式のエージェントの場合は「getActor」コマンドも必要になると思います。
  댓글 수: 1
一馬 平田
一馬 平田 2021년 11월 1일
ご回答頂きましてありがとうございます。
「getmodel」を使って、Q-Networkの呼び出しを試してみようと思います。
追加質問となり、申し訳ございませんが、
「getmodel」で呼び出した呼び出した方策(Q-Network)を使用し、別の対象の学習を行う時、
一部の層の重みを凍結させたいのですが、どのようにすればよろしいでしょうか。

댓글을 달려면 로그인하십시오.

추가 답변 (0개)

제품


릴리스

R2021b

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!