이 페이지의 최신 내용은 아직 번역되지 않았습니다. 최신 내용은 영문으로 볼 수 있습니다.

dropoutLayer

드롭아웃 계층

설명

드롭아웃 계층은 주어진 확률에 따라 입력 요소를 무작위로 0으로 설정합니다.

생성

구문

layer = dropoutLayer
layer = dropoutLayer(probability)
layer = dropoutLayer(___,'Name',Name)

설명

layer = dropoutLayer는 드롭아웃 계층을 만듭니다.

layer = dropoutLayer(probability)는 드롭아웃 계층을 만들고 Probability 속성을 설정합니다.

예제

layer = dropoutLayer(___,'Name',Name)은 위에 열거된 구문에 나와 있는 인수와 함께 이름-값 쌍을 사용하여 선택적 속성인 Name을 설정합니다. 예를 들어, dropoutLayer(0.4,'Name','drop1')은 드롭아웃 확률이 0.4이고 이름이 'drop1'인 드롭아웃 계층을 만듭니다. 속성 이름을 작은따옴표로 묶습니다.

속성

모두 확장

훈련 시점에 입력 요소(뉴런)를 배제할 확률로, 범위 0~1에 속하는 숫자형 스칼라로 지정됩니다.

수치가 높을수록 훈련 중에 배제되는 뉴런이 많아집니다.

예: 0.4

계층 이름으로, 문자형 벡터 또는 string형 스칼라로 지정됩니다. 계층 그래프에 계층을 포함하려면 비어 있지 않은 고유한 계층 이름을 지정해야 합니다. 이 계층을 사용하여 시리즈 네트워크를 훈련시킬 때 Name''로 설정하면, 소프트웨어가 훈련 시점에 해당 계층에 자동으로 이름을 할당합니다.

데이터형: char | string

예제

모두 축소

이름이 'drop1'인 드롭아웃 계층을 만듭니다.

layer = dropoutLayer('Name','drop1')
layer = 
  DropoutLayer with properties:

           Name: 'drop1'

   Hyperparameters
    Probability: 0.5000

Layer 배열에 드롭아웃 계층을 포함시킵니다.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    dropoutLayer
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  7x1 Layer array with layers:

     1   ''   Image Input             28x28x1 images with 'zerocenter' normalization
     2   ''   Convolution             20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   Dropout                 50% dropout
     5   ''   Fully Connected         10 fully connected layer
     6   ''   Softmax                 softmax
     7   ''   Classification Output   crossentropyex

세부 정보

모두 확장

참고 문헌

[1] Srivastava, N., G. Hinton, A. Krizhevsky, I. Sutskever, R. Salakhutdinov. "Dropout: A Simple Way to Prevent Neural Networks from Overfitting." Journal of Machine Learning Research. Vol. 15, pp. 1929-1958, 2014.

[2] Krizhevsky, A., I. Sutskever, and G. E. Hinton. "ImageNet Classification with Deep Convolutional Neural Networks." Advances in Neural Information Processing Systems. Vol. 25, 2012.

R2016a에 개발됨