Main Content

이 페이지의 최신 내용은 아직 번역되지 않았습니다. 최신 내용은 영문으로 볼 수 있습니다.

Layer

딥러닝을 위한 신경망 계층

설명

딥러닝을 위한 신경망의 아키텍처를 정의하는 계층입니다.

생성

MATLAB®의 딥러닝 계층 목록은 딥러닝 계층 목록 항목을 참조하십시오. 모든 계층이 순차적으로 연결된 신경망의 아키텍처를 지정하려면 계층으로 구성된 배열을 직접 만드십시오. 계층이 입력값 또는 출력값을 여러 개 가질 수 있는 신경망 아키텍처를 지정하려면 LayerGraph 객체를 사용하십시오.

또는 importCaffeLayers, importKerasLayers, importONNXLayers를 사용하여 각각 Caffe, Keras, ONNX에서 계층을 가져올 수도 있습니다.

사용자 지정 계층을 만드는 방법은 사용자 지정 딥러닝 계층 정의하기 항목을 참조하십시오.

객체 함수

trainNetwork딥러닝을 위해 신경망 훈련

예제

모두 축소

하나의 컨벌루션 계층, ReLU 계층, 완전 연결 계층을 갖는 분류를 위한 컨벌루션 신경망 아키텍처를 정의합니다.

layers = [ ...
    imageInputLayer([28 28 3])
    convolution2dLayer([5 5],10)
    reluLayer
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  6x1 Layer array with layers:

     1   ''   Image Input             28x28x3 images with 'zerocenter' normalization
     2   ''   Convolution             10 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   Fully Connected         10 fully connected layer
     5   ''   Softmax                 softmax
     6   ''   Classification Output   crossentropyex

layersLayer 객체입니다.

또는 계층을 개별적으로 만든 다음 결합해도 됩니다.

input = imageInputLayer([28 28 3]);
conv = convolution2dLayer([5 5],10);
relu = reluLayer;
fc = fullyConnectedLayer(10);
sm = softmaxLayer;
co = classificationLayer;

layers = [ ...
    input
    conv
    relu
    fc
    sm
    co]
layers = 
  6x1 Layer array with layers:

     1   ''   Image Input             28x28x3 images with 'zerocenter' normalization
     2   ''   Convolution             10 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   Fully Connected         10 fully connected layer
     5   ''   Softmax                 softmax
     6   ''   Classification Output   crossentropyex

하나의 컨벌루션 계층, ReLU 계층, 완전 연결 계층을 갖는 분류를 위한 컨벌루션 신경망 아키텍처를 정의합니다.

layers = [ ...
    imageInputLayer([28 28 3])
    convolution2dLayer([5 5],10)
    reluLayer
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer];

첫 번째 계층을 선택하여 영상 입력 계층을 표시합니다.

layers(1)
ans = 
  ImageInputLayer with properties:

                      Name: ''
                 InputSize: [28 28 3]

   Hyperparameters
          DataAugmentation: 'none'
             Normalization: 'zerocenter'
    NormalizationDimension: 'auto'
                      Mean: []

영상 입력 계층의 입력 크기를 표시합니다.

layers(1).InputSize
ans = 1×3

    28    28     3

컨벌루션 계층의 스트라이드를 표시합니다.

layers(2).Stride
ans = 1×2

     1     1

완전 연결 계층의 편향 학습률 인자에 액세스합니다.

layers(4).BiasLearnRateFactor
ans = 1

딥러닝을 위한 간단한 DAG(유방향 비순환 그래프) 신경망을 만듭니다. 숫자 영상을 분류하도록 신경망을 훈련시킵니다. 이 예제의 간단한 신경망은 다음으로 구성됩니다.

  • 계층이 순차적으로 연결된 기본 분기.

  • 1x1 컨벌루션 계층 1개를 포함하는 지름길 연결. 지름길 연결은 출력 계층에서 신경망의 이전 계층으로 파라미터 기울기가 보다 쉽게 흐르도록 해 줍니다.

신경망의 기본 분기를 계층 배열로 만듭니다. 덧셈 계층은 여러 개의 입력값을 요소별로 합산합니다. 덧셈 계층이 합산할 입력값의 개수를 지정합니다. 계층은 모두 고유한 이름을 가져야 합니다.

layers = [
    imageInputLayer([28 28 1],'Name','input')
    
    convolution2dLayer(5,16,'Padding','same','Name','conv_1')
    batchNormalizationLayer('Name','BN_1')
    reluLayer('Name','relu_1')
    
    convolution2dLayer(3,32,'Padding','same','Stride',2,'Name','conv_2')
    batchNormalizationLayer('Name','BN_2')
    reluLayer('Name','relu_2')
    convolution2dLayer(3,32,'Padding','same','Name','conv_3')
    batchNormalizationLayer('Name','BN_3')
    reluLayer('Name','relu_3')
    
    additionLayer(2,'Name','add')
    
    averagePooling2dLayer(2,'Stride',2,'Name','avpool')
    fullyConnectedLayer(10,'Name','fc')
    softmaxLayer('Name','softmax')
    classificationLayer('Name','classOutput')];

계층 배열에서 계층 그래프를 만듭니다. layerGraphlayers에 있는 모든 계층을 순차적으로 연결합니다. 계층 그래프를 플로팅합니다.

lgraph = layerGraph(layers);
figure
plot(lgraph)

1x1 컨벌루션 계층을 만들어서 계층 그래프에 추가합니다. 활성화 크기가 'relu_3' 계층의 활성화 크기와 일치하도록 컨벌루션 필터의 개수와 스트라이드를 지정합니다. 이렇게 지정해 두면 덧셈 계층이 'skipConv' 계층과 'relu_3' 계층의 출력값을 더할 수 있게 됩니다. 계층이 그래프에 있는지 확인하기 위해 계층 그래프를 플로팅합니다.

skipConv = convolution2dLayer(1,32,'Stride',2,'Name','skipConv');
lgraph = addLayers(lgraph,skipConv);
figure
plot(lgraph)

'relu_1' 계층에서 'add' 계층으로 지름길 연결을 만듭니다. 덧셈 계층을 만들 때 계층의 입력값의 개수를 2로 지정했으므로 이 계층은 이름이 각각 'in1''in2'인 2개의 입력값을 갖습니다. 'relu_3' 계층은 이미 'in1' 입력값에 연결되어 있습니다. 'relu_1' 계층을 'skipConv' 계층에 연결하고 'skipConv' 계층을 'add' 계층의 'in2' 입력값에 연결합니다. 이 덧셈 계층이 'relu_3' 계층과 'skipConv' 계층의 출력값을 합산합니다. 계층이 올바르게 연결되었는지 확인하려면 계층 그래프를 플로팅합니다.

lgraph = connectLayers(lgraph,'relu_1','skipConv');
lgraph = connectLayers(lgraph,'skipConv','add/in2');
figure
plot(lgraph);

28x28 회색조 숫자 영상으로 구성된 훈련 데이터와 검증 데이터를 불러옵니다.

[XTrain,YTrain] = digitTrain4DArrayData;
[XValidation,YValidation] = digitTest4DArrayData;

훈련 옵션을 지정하고 신경망을 훈련시킵니다. trainNetworkValidationFrequency회 반복마다 검증 데이터를 사용하여 신경망을 검증합니다.

options = trainingOptions('sgdm', ...
    'MaxEpochs',8, ...
    'Shuffle','every-epoch', ...
    'ValidationData',{XValidation,YValidation}, ...
    'ValidationFrequency',30, ...
    'Verbose',false, ...
    'Plots','training-progress');
net = trainNetwork(XTrain,YTrain,lgraph,options);

훈련된 신경망의 속성을 표시합니다. 신경망은 DAGNetwork 객체입니다.

net
net = 
  DAGNetwork with properties:

         Layers: [16×1 nnet.cnn.layer.Layer]
    Connections: [16×2 table]

검증 영상을 분류하고 정확도를 계산합니다. 이 신경망은 정확도가 매우 높습니다.

YPredicted = classify(net,XValidation);
accuracy = mean(YPredicted == YValidation)
accuracy = 0.9968
R2016a에 개발됨