Main Content

이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.

DQN(심층 Q-신경망) 에이전트

DQN(심층 Q-신경망) 알고리즘은 모델이 주어지지 않은(model-free) 온라인 방식의 오프-폴리시(off-policy) 강화 학습 방법입니다. DQN 에이전트는 가치를 기반으로 하는 강화 학습 에이전트로, 감가된 누적 장기 보상의 기대치를 추정하도록 크리틱을 훈련시킵니다. DQN은 Q-러닝의 변형된 형태입니다. Q-러닝에 대한 자세한 내용은 Q-러닝 에이전트 항목을 참조하십시오.

다양한 유형의 강화 학습 에이전트에 대한 자세한 내용은 강화 학습 에이전트 항목을 참조하십시오.

다음과 같은 관측값 공간과 행동 공간이 있는 환경에서 DQN 에이전트를 훈련시킬 수 있습니다.

관측값 공간행동 공간
연속 또는 이산이산

DQN 에이전트는 다음 크리틱을 사용합니다.

크리틱액터

rlQValueFunction 또는 rlVectorQValueFunction을 사용하여 만드는 Q-값 함수 크리틱 Q(S,A)

DQN 에이전트는 액터를 사용하지 않습니다.

훈련 중 에이전트는 다음을 수행합니다.

  • 학습하는 동안 각 시간 스텝에서 크리틱 속성을 업데이트합니다.

  • 엡실론-그리디 탐색을 사용하여 행동 공간을 탐색합니다. 각 제어 간격 동안 에이전트는 확률 ϵ으로 임의의 행동을 선택하거나, 확률 1-ϵ으로 행동-가치 함수에 따라 탐욕적으로 행동을 선택합니다. 이 탐욕적 행동은 행동-가치 함수가 최대가 되는 행동입니다.

  • 순환 경험 버퍼를 사용하여 과거의 경험을 저장합니다. 에이전트는 버퍼에서 무작위로 샘플링된 경험 미니 배치를 기반으로 하여 크리틱을 업데이트합니다.

크리틱 함수 근사기

최적의 정책 값을 추정하기 위해 DQN 에이전트는 두 개의 파라미터화된 행동-가치 함수를 사용하고, 이들 함수는 해당 크리틱에 의해 각각 유지됩니다.

  • 크리틱 Q(S,A;ϕ) — 관측값 S와 행동 A가 주어지면 이 크리틱은 최적의 정책(즉, 최적의 정책 값)을 따를 때 기대되는 감가된 누적 장기 보상 추정값을 저장합니다.

  • 타깃 크리틱 Qt(S,A;ϕt) — 최적화의 안정성을 높이기 위해 에이전트는 최신 크리틱 파라미터 값을 사용하여 타깃 크리틱 파라미터 ϕt를 주기적으로 업데이트합니다.

Q(S,A;ϕ)와 Qt(S,A;ϕt)는 모두 함수 근사기 객체에 의해 구현되고, 서로 동일한 구조와 파라미터화를 가집니다.

가치 함수 근사를 위해 크리틱을 만드는 방법에 대한 자세한 내용은 Create Policies and Value Functions 항목을 참조하십시오.

훈련이 진행되는 동안 에이전트는 ϕ의 파라미터 값을 조정합니다. 훈련 후에 파라미터는 조정된 값으로 유지되고 훈련된 가치 함수 근사기는 크리틱 Q(S,A)에 저장됩니다.

에이전트 만들기

MATLAB® 명령줄에서 또는 강화 학습 디자이너 앱을 사용하여 DQN 에이전트를 만들고 훈련시킬 수 있습니다. 강화 학습 디자이너를 사용하여 에이전트를 만드는 방법에 대한 자세한 내용은 Create Agents Using Reinforcement Learning Designer 항목을 참조하십시오.

명령줄에서 환경의 관측값 사양과 행동 사양을 기반으로 디폴트 DQN 에이전트를 만들 수 있습니다. 디폴트 DQN 에이전트는 심층 신경망 모델에 의존하는 함수 디폴트 근사기를 사용합니다. 이렇게 하려면 다음 단계를 수행하십시오.

  1. 환경에 대한 관측값 사양을 만듭니다. 환경 인터페이스 객체가 이미 있는 경우 getObservationInfo를 사용하여 이러한 사양을 가져올 수 있습니다.

  2. 환경에 대한 행동 사양을 만듭니다. 환경 인터페이스 객체가 이미 있는 경우 getActionInfo를 사용하여 이러한 사양을 가져올 수 있습니다.

  3. 필요한 경우, 각 학습 가능한 계층의 뉴런 개수(뉴런 개수의 디폴트 값은 256개임)를 지정하거나 LSTM 계층을 사용할지 여부(기본적으로 LSTM 계층은 사용되지 않음)를 지정합니다. 이렇게 하려면 rlAgentInitializationOptions를 사용하여 agent initialization option 객체를 만드십시오.

  4. 필요한 경우, rlDQNAgentOptions 객체를 사용하여 에이전트 옵션을 지정합니다.

  5. rlDQNAgent 객체를 사용하여 에이전트를 만듭니다.

또는, 크리틱을 만들고 이를 사용하여 에이전트를 만들 수 있습니다. 이 경우 크리틱의 관측값 계층 차원과 행동 계층 차원이 환경의 대응하는 행동 사양, 관측값 사양과 일치하도록 해야 합니다.

  1. rlQValueFunction 객체 또는 rlVectorQValueFunction 객체를 사용하여 크리틱을 만듭니다.

  2. rlDQNAgentOptions 객체를 사용하여 에이전트 옵션을 지정합니다. 또는 먼저 에이전트를 만든 다음(단계 3), 점 표기법을 사용하여 option 객체에 액세스하고 옵션을 수정할 수 있습니다.

  3. rlDQNAgent 객체를 사용하여 에이전트를 만듭니다.

DQN 에이전트는 순환 심층 신경망을 함수 근사기로 사용하는 크리틱을 지원합니다.

함수 근사를 위해 액터와 크리틱을 만드는 방법에 대한 자세한 내용은 Create Policies and Value Functions 항목을 참조하십시오.

훈련 알고리즘

DQN 에이전트는 다음 훈련 알고리즘을 사용하는데, 이 알고리즘은 각 시간 스텝에서 크리틱 모델을 업데이트합니다. 훈련 알고리즘을 구성하려면 rlDQNAgentOptions 객체를 사용하여 옵션을 지정하십시오.

  • 임의의 파라미터 값 ϕ로 크리틱 Q(s,a;ϕ)를 초기화하고, 동일한 값으로 타깃 크리틱 파라미터 ϕt를 초기화합니다. ϕt=ϕ.

  • 각 훈련 시간 스텝에 대해 다음을 수행합니다.

    1. 현재 관측값 S에 대해 확률 ϵ으로 임의의 행동 A를 선택합니다. 그렇지 않으면, 크리틱 가치 함수의 값이 최대인 행동을 선택합니다.

      A=argmaxAQ(S,A;ϕ)

      ϵ과 그 감쇠율을 지정하려면 EpsilonGreedyExploration 옵션을 사용하십시오.

    2. 행동 A를 실행합니다. 보상 R과 다음 관측값 S'을 관측합니다.

    3. 경험 (S,A,R,S')을 경험 버퍼에 저장합니다. 경험 버퍼의 크기를 지정하려면 ExperienceBufferLength 옵션을 사용하십시오.

    4. 경험 버퍼에서 M개의 경험 미니 배치(Si,Ai,Ri,S'i)를 무작위로 샘플링합니다. M을 지정하려면 MiniBatchSize 옵션을 사용하십시오.

    5. 미니 배치에 포함된 모든 경험에 대해 S'i이 종료 상태인 경우 가치 함수 타깃 yi를 Ri로 설정합니다. 그 외의 경우에는 다음과 같이 설정합니다.

      Amax=argmaxA'Q(Si',A';ϕ)yi=Ri+γQt(Si',Amax;ϕt)(doubleDQN)yi=Ri+γmaxA'Qt(Si',A';ϕt)(DQN)

      여기서 일반 DQN 알고리즘은 타깃 크리틱에 의해 유지되는 행동-가치 함수를 최대화하는 행동을 선택하는 반면, 더블 DQN은 기본 크리틱에 의해 유지되는 행동-가치 함수를 최대화하는 행동을 선택합니다.

      감가 인자 γ를 설정하려면 DiscountFactor 옵션을 사용하십시오. 더블 DQN을 사용하려면 UseDoubleDQN 옵션을 true로 설정하십시오.

      NumStepsToLookAhead의 값을 N과 같도록 지정할 경우, N-스텝 리턴값(그다음 N개 스텝의 보상에 N번째 보상의 원인이 된 상태에 대한 감가 추정값을 더한 값)이 타깃 yi를 계산하는 데 사용됩니다.

    6. 모든 샘플링된 경험에 걸쳐 손실 L의 단일 스텝 최소화를 통해 크리틱 파라미터를 업데이트합니다.

      L=12Mi=1M(yiQ(Si,Ai;ϕ))2

    7. 타깃 업데이트 방법에 따라 타깃 크리틱 파라미터를 업데이트합니다. 자세한 내용은 타깃 업데이트 방법 항목을 참조하십시오.

    8. EpsilonGreedyExploration 옵션에서 지정하는 감쇠율을 기반으로 임의의 행동을 선택하기 위한 확률 임계값 ϵ을 업데이트합니다.

타깃 업데이트 방법

DQN 에이전트는 다음 타깃 업데이트 방법 중 하나를 사용하여 타깃 크리틱 파라미터를 업데이트합니다.

  • 평활화 — 평활화 인자 τ를 사용하여 매 시간 스텝마다 타깃 파라미터를 업데이트합니다. 평활화 인자를 지정하려면 TargetSmoothFactor 옵션을 사용하십시오.

    ϕt=τϕ+(1τ)ϕt

  • 주기적 — 평활화하지 않고 타깃 파라미터를 주기적으로 업데이트합니다(TargetSmoothFactor = 1). 업데이트 기간을 지정하려면 TargetUpdateFrequency 파라미터를 사용하십시오.

  • 주기적 평활화 — 평활화를 사용하여 타깃 파라미터를 주기적으로 업데이트합니다.

타깃 업데이트 방법을 구성하려면 rlDQNAgentOptions 객체를 만들고, 다음 표에 표시된 대로 TargetUpdateFrequency 파라미터와 TargetSmoothFactor 파라미터를 설정하십시오.

업데이트 방법TargetUpdateFrequencyTargetSmoothFactor
평활화(디폴트 값)11보다 작음
주기적1보다 큼1
주기적 평활화1보다 큼1보다 작음

참고 문헌

[1] Mnih, Volodymyr, Koray Kavukcuoglu, David Silver, Alex Graves, Ioannis Antonoglou, Daan Wierstra, and Martin Riedmiller. “Playing Atari with Deep Reinforcement Learning.” ArXiv:1312.5602 [Cs], December 19, 2013. https://arxiv.org/abs/1312.5602.

참고 항목

객체

관련 예제

세부 정보