이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
rlSimulinkEnv
이미 에이전트와 환경을 포함한 Simulink 모델에서 환경 객체를 만듭니다.
구문
설명
rlSimulinkEnv
함수는 이미 에이전트 블록을 포함한 Simulink® 모델에서 환경 객체를 만듭니다. 환경 객체는 인터페이스로 동작하기 때문에 sim
또는 train
을 호출하면 이 함수에서 다시 (컴파일된) Simulink 모델을 호출하여 에이전트의 경험을 생성합니다.
에이전트 블록을 포함하지 않는 Simulink 모델에서 환경 객체를 만들려면 createIntegratedEnv
를 대신 사용하십시오. 강화 학습 환경에 대한 자세한 내용은 Create Custom Simulink Environments 항목을 참조하십시오.
는 Simulink 모델 env
= rlSimulinkEnv(mdl
,agentBlocks
)mdl
에 대한 강화 학습 환경 객체 env
를 생성합니다. agentBlocks
는 mdl
에 있는 하나 이상의 강화 학습 에이전트 블록에 대한 경로를 포함합니다. 이 구문을 사용하는 경우 각 에이전트 블록은 이미 MATLAB® 작업 공간에 있는 agent 객체를 참조해야 합니다.
는 모델 env
= rlSimulinkEnv(mdl
,agentBlocks
,observationInfo
,actionInfo
)mdl
에 대한 강화 학습 환경 객체 env
를 만듭니다. 두 셀형 배열 observationInfo
와 actionInfo
는 mdl
의 각 에이전트 블록에 대한 관측값 사양과 행동 사양을 포함해야 하며, 이때 순서는 agentBlocks
에 나타나는 것과 일치해야 합니다.
은 강화 학습 환경 객체 env
= rlSimulinkEnv(___,'UseFastRestart',fastRestartToggle
)env
를 만들고, 추가적으로 빠른 재시작을 활성화합니다. 이 구문은 위에 열거된 구문에 나와 있는 입력 인수 다음에 사용하십시오.
예제
입력 인수
출력 인수
버전 내역
R2019a에 개발됨
참고 항목
함수
객체
SimulinkEnvWithAgent
|rlNumericSpec
|rlFiniteSetSpec
|rlFunctionEnv
|rlMultiAgentFunctionEnv
|rlTurnBasedFunctionEnv
블록
도움말 항목
- Compare DDPG Agent to LQR Controller
- 진자가 위쪽으로 똑바로 서서 균형을 유지하도록 DDPG 에이전트 훈련시키기
- 카트-폴 시스템이 위쪽으로 똑바로 서서 균형을 유지하도록 DDPG 에이전트 훈련시키기
- Train DDPG Agent to Swing Up and Balance Pendulum with Bus Signal
- Train DDPG Agent to Swing Up and Balance Pendulum with Image Observation
- 적응형 크루즈 컨트롤을 위해 DDPG 에이전트 훈련시키기
- Create Custom Simulink Environments
- How Fast Restart Improves Iterative Simulations (Simulink)