rlSimulinkEnv
에이전트와 환경이 이미 포함되어 있는 Simulink 모델에서 환경 객체 만들기
구문
설명
rlSimulinkEnv 함수는 에이전트 블록이 이미 포함되어 있는 Simulink® 모델에서 환경 객체를 만듭니다. 환경 객체는 인터페이스로 동작하기 때문에 sim 또는 train을 호출하면 이 함수에서 다시 (컴파일된) Simulink 모델을 호출하여 에이전트의 경험을 생성합니다.
에이전트 블록을 포함하지 않는 Simulink 모델에서 환경 객체를 만들려면 createIntegratedEnv를 대신 사용하십시오. 강화 학습 환경에 대한 자세한 내용은 사용자 지정 Simulink 환경 만들기 항목을 참조하십시오.
는 Simulink 모델 env = rlSimulinkEnv(mdl,agentBlocks)mdl에 대한 강화 학습 환경 객체 env를 생성합니다. agentBlocks는 mdl에 있는 하나 이상의 강화 학습 에이전트 블록에 대한 경로를 포함합니다. 이 구문을 사용하는 경우 각 에이전트 블록은 이미 MATLAB® 작업 공간에 있는 agent 객체를 참조해야 합니다.
는 모델 env = rlSimulinkEnv(mdl,agentBlocks,observationInfo,actionInfo)mdl에 대한 강화 학습 환경 객체 env를 만듭니다. 두 셀형 배열 observationInfo와 actionInfo는 mdl의 각 에이전트 블록에 대한 관측값 사양과 행동 사양을 포함해야 하며, 이때 순서는 agentBlocks에 나타나는 것과 일치해야 합니다.
은 강화 학습 환경 객체 env = rlSimulinkEnv(___,'UseFastRestart',fastRestartToggle)env를 만들고, 추가적으로 빠른 재시작을 활성화합니다. 이 구문은 위에 열거된 구문에 나와 있는 입력 인수 다음에 사용하십시오.
예제
입력 인수
출력 인수
버전 내역
R2019a에 개발됨
참고 항목
함수
객체
SimulinkEnvWithAgent|rlNumericSpec|rlFiniteSetSpec|rlFunctionEnv|rlMultiAgentFunctionEnv|rlTurnBasedFunctionEnv|rlMDPEnv
블록
도움말 항목
- Compare DDPG Agent to LQR Controller
- 진자가 위쪽으로 똑바로 서서 균형을 유지하도록 DDPG 에이전트 훈련시키기
- 카트-폴 시스템이 위쪽으로 똑바로 서서 균형을 유지하도록 DDPG 에이전트 훈련시키기
- Train DDPG Agent to Swing Up and Balance Pendulum with Bus Signal
- Train DDPG Agent to Swing Up and Balance Pendulum with Image Observation
- 적응형 크루즈 컨트롤을 위해 DDPG 에이전트 훈련시키기
- 사용자 지정 Simulink 환경 만들기
- How Fast Restart Improves Iterative Simulations (Simulink)