Main Content

이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.

rlDQNAgentOptions

DQN 에이전트에 대한 옵션

R2019a 이후

설명

rlDQNAgentOptions 객체를 사용하여 DQN(심층 Q-신경망) 에이전트에 대한 옵션을 지정합니다. DQN 에이전트를 만들려면 rlDQNAgent를 사용하십시오.

자세한 내용은 DQN(심층 Q-신경망) 에이전트 항목을 참조하십시오.

다양한 유형의 강화 학습 에이전트에 대한 자세한 내용은 강화 학습 에이전트 항목을 참조하십시오.

생성

설명

opt = rlDQNAgentOptions는 전부 디폴트 설정을 사용하여 DQN 에이전트를 만들 때 인수로 사용할 options 객체를 만듭니다. 점 표기법을 사용하여 객체 속성을 수정할 수 있습니다.

예제

opt = rlDQNAgentOptions(Name,Value)는 이름-값 쌍을 사용하여 옵션 속성을 설정합니다. 예를 들어, rlDQNAgentOptions('DiscountFactor',0.95)는 감가 인자 0.95를 사용하여 옵션 세트를 만듭니다. 여러 개의 이름-값 쌍을 지정할 수 있습니다. 각 속성 이름을 따옴표로 묶습니다.

속성

모두 확장

가치 함수 타깃 업데이트에 더블 DQN을 사용할지 여부를 지정하는 플래그로, 논리값으로 지정됩니다. 대부분의 응용 사례에서는 UseDoubleDQN"on"으로 설정하십시오. 자세한 내용은 DQN(심층 Q-신경망) 에이전트 항목을 참조하십시오.

엡실론-그리디 탐색에 대한 옵션으로, 다음 속성을 갖는 EpsilonGreedyExploration 객체로 지정됩니다.

속성설명디폴트 값
Epsilon행동을 무작위로 선택하거나 상태-행동 가치 함수를 최대화하는 행동을 선택하기 위한 확률 임계값입니다. Epsilon 값이 더 크다는 것은 에이전트가 더 높은 비율로 행동 공간을 무작위로 탐색한다는 의미입니다.1
EpsilonMinEpsilon의 최솟값0.01
EpsilonDecay감쇠율0.0050

각 훈련 시간 스텝 종료 시 EpsilonEpsilonMin보다 크면 다음 식을 사용하여 업데이트됩니다.

Epsilon = Epsilon*(1-EpsilonDecay)

Epsilon은 한 에피소드의 끝과 다음 에피소드의 시작 사이에 보존됩니다. 따라서 EpsilonMin에 도달할 때까지 여러 에피소드에 걸쳐 계속 균일하게 감소합니다.

에이전트가 국소 최적해에 너무 빠르게 수렴할 경우 Epsilon을 늘려서 에이전트 탐색을 촉진할 수 있습니다.

탐색 옵션을 지정하려면 rlDQNAgentOptions 객체 opt를 만든 후에 점 표기법을 사용하십시오. 예를 들어, 엡실론 값을 0.9로 설정합니다.

opt.EpsilonGreedyExploration.Epsilon = 0.9;

크리틱 최적화 함수 옵션으로, rlOptimizerOptions 객체로 지정됩니다. 이 옵션을 사용하면 학습률, 기울기 임계값뿐 아니라 최적화 함수 알고리즘과 그 파라미터 같은 크리틱 근사기의 훈련 파라미터를 지정할 수 있습니다. 자세한 내용은 rlOptimizerOptions 항목과 rlOptimizer 항목을 참조하십시오.

배치 데이터 정규화 함수 옵션으로, rlConservativeQLearningOptions 객체로 지정됩니다. 이러한 옵션은 기존 데이터로부터 에이전트를 오프라인으로 훈련시키는 데 사용됩니다. 이 옵션을 비워 두면 디폴트 rlConservativeQLearningOptions 옵션 객체가 사용됩니다(필요한 경우).

자세한 내용은 rlConservativeQLearningOptions 항목을 참조하십시오.

예: opt.BatchDataRegularizerOptions = rlConservativeQLearningOptions(MinQValueWeight=5)

타깃 크리틱 업데이트를 위한 평활화 인자로, 1보다 작거나 같은 양의 스칼라로 지정됩니다. 자세한 내용은 타깃 업데이트 방법 항목을 참조하십시오.

다음 타깃 크리틱 업데이트로 넘어가기 전의 스텝 수로, 양의 정수로 지정됩니다. 자세한 내용은 타깃 업데이트 방법 항목을 참조하십시오.

훈련 전 경험 버퍼를 지우기 위한 옵션으로, 논리값으로 지정됩니다.

크리틱에 순환 신경망을 사용할 때의 최대 배치-훈련 궤적 길이로, 양의 정수로 지정됩니다. 이 값은 크리틱에 순환 신경망을 사용하는 경우 1보다 커야 하고, 그 외에는 1이어야 합니다.

무작위 경험 미니 배치의 크기로, 양의 정수로 지정됩니다. 각 훈련 에피소드 중에 에이전트는 크리틱 속성 업데이트를 위한 기울기를 계산할 때 경험 버퍼에서 무작위로 경험을 샘플링합니다. 대규모 미니 배치를 사용하면 기울기 계산 시 분산을 줄일 수 있지만 계산 비용이 늘어납니다.

크리틱에 순환 신경망을 사용할 경우 MiniBatchSize는 배치에 포함되는 경험 궤적의 수입니다. 여기서 각 궤적의 길이는 SequenceLength와 동일합니다.

정책 값 추정에 사용되는 미래 보상 수로, 양의 정수로 지정됩니다. 자세한 내용은 [1]의 7장을 참조하십시오.

크리틱에 순환 신경망을 사용할 경우 N-스텝 Q 러닝은 지원되지 않습니다. 이 경우 NumStepsToLookAhead1이어야 합니다.

경험 버퍼 크기로, 양의 정수로 지정됩니다. 훈련 중에 에이전트는 버퍼에서 무작위로 샘플링된 경험의 미니 배치를 사용하여 업데이트를 계산합니다.

에이전트의 샘플 시간으로, 양의 스칼라 또는 -1로 지정됩니다. 이 파라미터를 -1로 설정하면 이벤트 기반 시뮬레이션을 실행할 수 있습니다.

Simulink® 환경에서는 에이전트가 시뮬레이션 시간의 매 SampleTime초마다 실행되도록 지정된 RL Agent 블록입니다. SampleTime-1이면 이 블록은 부모 서브시스템에서 샘플 시간을 상속합니다.

MATLAB® 환경에서는 환경이 진행될 때마다 에이전트가 실행됩니다. 이 경우 SampleTimesim 또는 train에 의해 반환되는 출력 경험의 연속된 요소 사이의 시간 간격입니다. SampleTime-1인 경우 반환되는 출력 경험의 연속된 요소 사이의 시간 간격은 에이전트 실행을 트리거하는 이벤트의 발생 시점을 반영합니다.

훈련 중에 미래 보상에 적용할 감가 인자로, 1보다 작거나 같은 양의 스칼라로 지정됩니다.

객체 함수

rlDQNAgentDeep Q-network (DQN) reinforcement learning agent

예제

모두 축소

에이전트의 미니 배치 크기를 지정하는 rlDQNAgentOptions 객체를 만듭니다.

opt = rlDQNAgentOptions(MiniBatchSize=48)
opt = 
  rlDQNAgentOptions with properties:

                           UseDoubleDQN: 1
               EpsilonGreedyExploration: [1x1 rl.option.EpsilonGreedyExploration]
                 CriticOptimizerOptions: [1x1 rl.option.rlOptimizerOptions]
            BatchDataRegularizerOptions: []
                     TargetSmoothFactor: 1.0000e-03
                  TargetUpdateFrequency: 1
    ResetExperienceBufferBeforeTraining: 0
                         SequenceLength: 1
                          MiniBatchSize: 48
                    NumStepsToLookAhead: 1
                 ExperienceBufferLength: 10000
                             SampleTime: 1
                         DiscountFactor: 0.9900
                             InfoToSave: [1x1 struct]

점 표기법을 사용하여 옵션을 수정할 수 있습니다. 예를 들어, 에이전트 샘플 시간을 0.5로 설정합니다.

opt.SampleTime = 0.5;

참고 문헌

[1] Sutton, Richard S., and Andrew G. Barto. Reinforcement Learning: An Introduction. Second edition. Adaptive Computation and Machine Learning. Cambridge, Mass: The MIT Press, 2018.

버전 내역

R2019a에 개발됨

모두 확장