rlSimulinkEnv
이미 에이전트와 환경을 포함한 Simulink 모델에서 환경 객체를 만듭니다.
구문
설명
rlSimulinkEnv
함수는 이미 에이전트 블록을 포함한 Simulink® 모델에서 환경 객체를 만듭니다. 환경 객체는 인터페이스로 동작하기 때문에 sim
또는 train
을 호출하면 이 함수에서 다시 (컴파일된) Simulink 모델을 호출하여 에이전트의 경험을 생성합니다.
에이전트 블록을 포함하지 않는 Simulink 모델에서 환경 객체를 만들려면 createIntegratedEnv
를 대신 사용하십시오. 강화 학습 환경에 대한 자세한 내용은 Create Custom Simulink Environments 항목을 참조하십시오.
는 Simulink 모델 env
= rlSimulinkEnv(mdl
,agentBlocks
)mdl
에 대한 강화 학습 환경 객체 env
를 생성합니다. agentBlocks
는 mdl
에 있는 하나 이상의 강화 학습 에이전트 블록에 대한 경로를 포함합니다. 이 구문을 사용하는 경우 각 에이전트 블록은 이미 MATLAB® 작업 공간에 있는 agent 객체를 참조해야 합니다.
는 모델 env
= rlSimulinkEnv(mdl
,agentBlocks
,observationInfo
,actionInfo
)mdl
에 대한 강화 학습 환경 객체 env
를 만듭니다. 두 셀형 배열 observationInfo
와 actionInfo
는 mdl
의 각 에이전트 블록에 대한 관측값 사양과 행동 사양을 포함해야 하며, 이때 순서는 agentBlocks
에 나타나는 것과 일치해야 합니다.
은 강화 학습 환경 객체 env
= rlSimulinkEnv(___,'UseFastRestart',fastRestartToggle
)env
를 만들고, 추가적으로 빠른 재시작을 활성화합니다. 이 구문은 위에 열거된 구문에 나와 있는 입력 인수 다음에 사용하십시오.
예제
입력 인수
출력 인수
버전 내역
R2019a에 개발됨
참고 항목
함수
객체
SimulinkEnvWithAgent
|rlNumericSpec
|rlFiniteSetSpec
|rlFunctionEnv
|rlMultiAgentFunctionEnv
|rlTurnBasedFunctionEnv
블록
도움말 항목
- Compare DDPG Agent to LQR Controller
- 진자가 위쪽으로 똑바로 서서 균형을 유지하도록 DDPG 에이전트 훈련시키기
- 카트-폴 시스템이 위쪽으로 똑바로 서서 균형을 유지하도록 DDPG 에이전트 훈련시키기
- Train DDPG Agent to Swing Up and Balance Pendulum with Bus Signal
- Train DDPG Agent to Swing Up and Balance Pendulum with Image Observation
- 적응형 크루즈 컨트롤을 위해 DDPG 에이전트 훈련시키기
- Create Custom Simulink Environments
- How Fast Restart Improves Iterative Simulations (Simulink)