주요 콘텐츠

이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.

DDPG(심층 결정적 정책 경사) 에이전트

DDPG(심층 결정적 정책 경사) 알고리즘은 연속 행동-공간이 있는 환경을 위한 오프-폴리시 액터-크리틱 방법입니다. DDPG 에이전트는 결정적 정책을 학습하는 동시에 Q-값 함수 크리틱을 사용하여 최적의 정책 값을 추정합니다. 이 에이전트는 타깃 액터 및 크리틱뿐 아니라 경험 버퍼를 특징으로 합니다. DDPG 에이전트는 오프라인 훈련(환경 없이, 저장된 데이터에서 훈련)을 지원합니다. 다양한 유형의 강화 학습 에이전트에 대한 자세한 내용은 강화 학습 에이전트 항목을 참조하십시오.

Reinforcement Learning Toolbox™에서 심층 결정적 정책 경사 에이전트는 rlDDPGAgent 객체에 의해 구현됩니다.

다음과 같은 관측값 공간과 행동 공간이 있는 환경에서 DDPG 에이전트를 훈련시킬 수 있습니다.

관측값 공간행동 공간
연속 또는 이산연속

DDPG 에이전트는 다음 액터와 크리틱을 사용합니다.

크리틱액터

rlQValueFunction을 사용하여 만드는 Q-값 함수 크리틱 Q(S,A)

rlContinuousDeterministicActor를 사용하여 만드는 결정적 정책 액터 π(S)

DDPG 에이전트는 훈련 과정에서 다음을 수행합니다.

  • 학습하는 동안 각 시간 스텝에서 액터와 크리틱의 학습 가능한 파라미터를 업데이트합니다.

  • 순환 경험 버퍼를 사용하여 과거의 경험을 저장합니다. 에이전트는 버퍼에서 무작위로 샘플링된 경험 미니 배치를 사용하여 액터와 크리틱을 업데이트합니다.

  • 각 훈련 스텝에서 정책에 의해 선택된 행동을 확률적 잡음 모델을 사용하여 섭동합니다.

DDPG 에이전트에 사용되는 액터 및 크리틱

정책과 가치 함수를 추정하기 위해 DDPG 에이전트는 다음과 같은 4개의 함수 근사기를 관리합니다.

  • 액터 π(S,;θ) — 액터는 파라미터 θ를 사용하면서 관측값 S를 받고 장기 보상을 최대화하는 행동을 반환합니다. 여기서 π는 확률 분포를 나타내는 것이 아니라 행동을 반환하는 함수를 나타냅니다.

  • 타깃 액터 πt(S;θt) — 최적화의 안정성을 높이기 위해 에이전트는 최신 액터 파라미터 값을 사용하여 타깃 액터의 학습 가능한 파라미터 θt를 주기적으로 업데이트합니다.

  • 크리틱 Q(S,A;ϕ) — 크리틱은 파라미터 ϕ를 사용하면서 관측값 S와 행동 A를 입력값으로 받고 대응하는 장기 보상의 기대값을 반환합니다.

  • 타깃 크리틱 Qt(S,A;ϕt) — 최적화의 안정성을 높이기 위해 에이전트는 최신 크리틱 파라미터 값을 사용하여 타깃 크리틱의 학습 가능한 파라미터 ϕt를 주기적으로 업데이트합니다.

Q(S,A;ϕ)와 Qt(S,A;ϕt)가 서로 동일한 구조와 파라미터화를 갖고, π(S;θ)와 πt(S;θt)가 서로 동일한 구조와 파라미터화를 가집니다.

훈련이 진행되는 동안 액터는 정책을 개선하기 위해 θ의 파라미터 값을 조정합니다. 마찬가지로 훈련이 진행되는 동안 크리틱은 행동-가치 함수 추정값을 개선하기 위해 ϕ의 파라미터 값을 조정합니다. 훈련을 마친 후 파라미터는 훈련된 에이전트 내부의 액터와 크리틱에서 조정된 값으로 유지됩니다.

액터와 크리틱에 대한 자세한 내용은 Create Policies and Value Functions 항목을 참조하십시오.

DDPG 에이전트 생성

MATLAB® 명령줄에서 또는 강화 학습 디자이너 앱을 사용하여 DDPG 에이전트를 만들고 훈련시킬 수 있습니다. 강화 학습 디자이너를 사용하여 에이전트를 만드는 방법에 대한 자세한 내용은 Create Agents Using Reinforcement Learning Designer 항목을 참조하십시오.

명령줄에서 환경의 관측값 사양과 행동 사양을 기반으로 디폴트 액터와 크리틱을 사용하는 DDPG 에이전트를 만들 수 있습니다. 이렇게 하려면 다음 단계를 수행하십시오.

  1. 환경에 대한 관측값 사양을 만듭니다. 환경 객체가 이미 있는 경우 getObservationInfo를 사용하여 이러한 사양을 가져올 수 있습니다.

  2. 환경에 대한 행동 사양을 만듭니다. 환경 객체가 이미 있는 경우 getActionInfo를 사용하여 이러한 사양을 가져올 수 있습니다.

  3. 필요한 경우, 디폴트 신경망에 있는 각 학습 가능한 계층의 뉴런 개수를 지정하거나 LSTM 계층을 사용할지 여부를 지정합니다. 이렇게 하려면 rlAgentInitializationOptions를 사용하여 agent initialization option 객체를 만드십시오.

  4. 필요한 경우, rlDDPGAgentOptions 객체를 사용하여 에이전트 옵션을 지정합니다. 또는 이 단계를 건너뛰고 나중에 점 표기법을 사용하여 에이전트 옵션을 수정할 수 있습니다.

  5. rlDDPGAgent를 사용하여 에이전트를 만듭니다.

또는, 사용자 지정 액터와 크리틱을 만들고 이러한 객체를 사용하여 에이전트를 만들 수 있습니다. 이 경우 액터와 크리틱의 입력 차원, 출력 차원이 환경의 대응하는 행동 사양, 관측값 사양과 일치하도록 해야 합니다.

  1. 환경에 대한 관측값 사양을 만듭니다. 환경 객체가 이미 있는 경우 getObservationInfo를 사용하여 이러한 사양을 가져올 수 있습니다.

  2. 환경에 대한 행동 사양을 만듭니다. 환경 객체가 이미 있는 경우 getActionInfo를 사용하여 이러한 사양을 가져올 수 있습니다.

  3. 액터에 대한 근사 모델을 만듭니다. 초기 파라미터 값을 갖는 사용자 지정 기저 함수나 신경망 객체를 사용할 수 있습니다.

  4. rlContinuousDeterministicActor를 사용하여 액터를 만듭니다. 이전 단계에서 만든 모델을 첫 번째 입력 인수로 사용하십시오.

  5. 크리틱에 대한 근사 모델을 만듭니다. 초기 파라미터 값을 갖는 사용자 지정 기저 함수나 신경망 객체를 사용할 수 있습니다.

  6. rlQValueFunction을 사용하여 크리틱을 만듭니다. 이전 단계에서 만든 모델을 첫 번째 입력 인수로 사용하십시오.

  7. rlDDPGAgentOptions 객체를 사용하여 에이전트 옵션을 지정합니다. 또는 이 단계를 건너뛰고 나중에 점 표기법을 사용하여 에이전트 옵션을 수정할 수 있습니다.

  8. rlDDPGAgent를 사용하여 에이전트를 만듭니다.

함수 근사를 위해 액터와 크리틱을 만드는 방법에 대한 자세한 내용은 Create Policies and Value Functions 항목을 참조하십시오.

DDPG 훈련 알고리즘

DDPG 에이전트는 다음 훈련 알고리즘을 사용하는데, 이 알고리즘은 각 시간 스텝에서 액터 모델과 크리틱 모델을 업데이트합니다. 훈련 알고리즘을 구성하려면 rlDDPGAgentOptions 객체를 사용하여 옵션을 지정하십시오.

  • 임의의 파라미터 값 ϕ로 크리틱 Q(S,A;ϕ)를 초기화하고, 동일한 값으로 타깃 크리틱 파라미터 ϕt를 초기화합니다. ϕt=ϕ.

  • 임의의 파라미터 값 θ로 액터 π(S,;θ)를 초기화하고, 동일한 값으로 타깃 액터 파라미터 θt를 초기화합니다. θt=θ.

  • π(S;θ)로 표현된 초기 정책에 따라 순서대로 행동을 취하여 웜 스타트를 수행합니다.

    1. 각 에피소드가 시작할 때 환경에서 초기 관측값을 가져옵니다.

    2. 현재 관측값에 대해 행동 A = π(S;θ) + N을 선택합니다. 여기서 N은 잡음 모델의 확률적 잡음입니다. 잡음 모델을 구성하려면 NoiseOptions 옵션을 사용하십시오.

    3. 행동 A를 실행합니다. 보상 R과 다음 관측값 S'을 관측합니다.

    4. 경험 (S,A,R,S')을 경험 버퍼에 저장합니다.

    경험 버퍼의 크기를 지정하려면 에이전트 rlDDPGAgentOptions 객체에 ExperienceBufferLength 옵션을 사용하십시오. 워밍업 행동의 개수를 지정하려면 NumWarmStartSteps 옵션을 사용하십시오.

  • 웜 스타트 절차 후 각 훈련 시간 스텝에 대해 다음을 수행합니다.

    1. 웜 스타트 절차에 설명된 4가지 연산을 실행합니다.

    2. DC 시간 스텝마다(DC를 지정하려면 LearningFrequency 옵션 사용) 다음 두 가지 연산을 NumEpoch번 수행합니다.

      1. 수집된 모든 경험을 활용하여 최대 B개의 서로 다른 미니 배치를 만듭니다. B를 지정하려면 MaxMiniBatchPerEpoch 옵션을 사용하십시오. 각 미니 배치에는 경험 버퍼에서 무작위로 샘플링된 M개의 서로 다른(일반적으로 비연속적인) 경험(Si,Ai,Ri,S'i)이 포함되어 있습니다(각 경험은 하나의 미니 배치에만 포함될 수 있음). M을 지정하려면 MiniBatchSize 옵션을 사용하십시오.

        에이전트에 순환 신경망이 포함되어 있는 경우 각 미니 배치에는 M개의 서로 다른 시퀀스가 포함됩니다. 각 시퀀스에는 K개의 연속된 경험(무작위로 샘플링된 경험에서 시작)이 포함되어 있습니다. K를 지정하려면 SequenceLength 옵션을 사용하십시오.

      2. (무작위로 선택된) 각 미니 배치에 대해 미니 배치 학습 연산에 설명된 학습 연산을 수행합니다.

      LearningFrequency의 디폴트 값이 -1인 경우 미니 배치 생성(항목 a에 설명되어 있음)과 학습 연산(항목 b에 설명되어 있음)은 각 에피소드가 완료된 후에 실행됩니다.

단순화를 위해, 이 알고리즘에서 액터와 크리틱이 수행하는 업데이트는 기본 방법인 확률적 경사하강법을 사용한 기울기 업데이트를 보여 줍니다. 실제 기울기 업데이트 방법은 rlOptimizerOptions 객체에 지정하는 rlCriticOptimizerOptions 속성에 할당된 최적화 함수에 따라 달라집니다.

미니 배치 학습 연산

각 미니 배치에 대해 수행되는 연산입니다.

  1. S'i이 종료 상태인 경우 가치 함수 타깃 yiRi로 설정합니다. 그 외의 경우에는 다음과 같이 설정합니다.

    yi=Ri+γQt(Si',πt(Si';θt);ϕt)

    가치 함수 타깃은 경험 보상 Ri와 감가된 미래 보상의 합입니다. 감가 인자 γ를 지정하려면 DiscountFactor 옵션을 사용하십시오.

    누적 보상을 계산하기 위해 먼저 에이전트는 샘플링된 경험에서 받은 다음 관측값 S'i를 타깃 액터로 전달하여 다음 행동을 계산합니다. 에이전트는 다음 행동을 타깃 크리틱에 전달하여 누적 보상을 구합니다.

    NumStepsToLookAhead의 값을 N과 같도록 지정할 경우, N-스텝 리턴값(그다음 N개 스텝의 보상에 N번째 보상의 원인이 된 상태에 대한 감가 추정값을 더한 값)이 타깃 yi를 계산하는 데 사용됩니다.

  2. 모든 샘플링된 경험에 걸쳐 손실 Lk의 최소화를 통해 크리틱 파라미터를 업데이트합니다.

    Lk=12Mi=1M(yiQk(Si,Ai;ϕk))2

  3. DA 크리틱 업데이트마다(DA를 설정하려면 PolicyUpdateFrequency 옵션 사용) 기대되는 감가된 누적 장기 보상을 최대화하기 위해 다음과 같이 샘플링되는 정책 경사를 사용하여 액터 파라미터를 업데이트합니다.

    θJ1Mi=1MGaiGπiGai=AQ(Si,A;ϕ)whereA=π(Si;θ)Gπi=θπ(Si;θ)

    여기서 Gai는 액터 신경망에서 계산된 행동에 대한 크리틱 출력값의 기울기이고, Gπi는 액터 파라미터에 대한 액터 출력값의 기울기입니다. 두 기울기는 관측값 Si에 대해 계산됩니다.

  4. TargetUpdateFrequency 크리틱이 업데이트될 때마다 타깃 업데이트 방법에 따라 타깃 액터와 크리틱을 업데이트합니다. 자세한 내용은 타깃 업데이트 방법 항목을 참조하십시오.

타깃 업데이트 방법

DDPG 에이전트는 다음 타깃 업데이트 방법 중 하나를 사용하여 타깃 액터와 크리틱 파라미터를 업데이트합니다.

  • 평활화 — 평활화 인자 τ를 사용하여 매 시간 스텝마다 타깃 파라미터를 업데이트합니다. 평활화 인자를 지정하려면 TargetSmoothFactor 옵션을 사용하십시오.

    ϕt=τϕ+(1τ)ϕt(critic parameters)θt=τθ+(1τ)θt(actor parameters)

  • 주기적 — 평활화하지 않고 타깃 파라미터를 주기적으로 업데이트합니다(TargetSmoothFactor = 1). 업데이트 주기를 지정하려면 TargetUpdateFrequency 파라미터를 사용하십시오.

  • 주기적 평활화 — 평활화를 사용하여 타깃 파라미터를 주기적으로 업데이트합니다.

타깃 업데이트 방법을 구성하려면 rlDDPGAgentOptions 객체를 만들고, 다음 표에 표시된 대로 TargetUpdateFrequency 파라미터와 TargetSmoothFactor 파라미터를 설정하십시오.

업데이트 방법TargetUpdateFrequencyTargetSmoothFactor
평활화(디폴트 값)11보다 작음
주기적1보다 큼1
주기적 평활화1보다 큼1보다 작음

참고 문헌

[1] Lillicrap, Timothy P., Jonathan J. Hunt, Alexander Pritzel, Nicolas Heess, Tom Erez, Yuval Tassa, David Silver, and Daan Wierstra. “Continuous Control with Deep Reinforcement Learning.” ArXiv:1509.02971 [Cs, Stat], September 9, 2015. https://arxiv.org/abs/1509.02971.

참고 항목

객체

도움말 항목