이 페이지의 최신 내용은 아직 번역되지 않았습니다. 최신 내용은 영문으로 볼 수 있습니다.

additionLayer

설명

덧셈 계층은 여러 신경망 계층의 입력값을 요소별로 더합니다.

계층을 만들 때 계층의 입력값의 개수를 지정합니다. 계층의 입력값은 'in1','in2',...,'inN'과 같은 이름을 갖습니다. 여기서 N은 입력값의 개수입니다. 입력값 이름은 connectLayers 또는 disconnectLayers를 사용하여 계층을 연결하거나 연결을 끊을 때 사용합니다. 덧셈 계층의 입력값은 모두 동일한 차원을 가져야 합니다.

생성

설명

예제

layer = additionLayer(numInputs)numInputs개의 입력값을 요소별로 더하는 덧셈 계층을 만듭니다. 이 함수는 NumInputs 속성도 설정합니다.

예제

layer = additionLayer(numInputs,'Name',Name)Name 속성도 설정합니다. 덧셈 계층을 포함하는 네트워크를 만들려면 계층 이름을 지정해야 합니다.

속성

모두 확장

계층에 대한 입력값의 개수로, 양의 정수로 지정됩니다.

입력값은 'in1','in2',...,'inN'과 같은 이름을 갖습니다. 여기서 NNumInputs와 같습니다. 예를 들어 NumInputs가 3인 경우, 입력값은 'in1','in2','in3'이라는 이름을 갖습니다. 입력값 이름은 connectLayers 또는 disconnectLayers를 사용하여 계층을 연결하거나 연결을 끊을 때 사용합니다.

계층 이름으로, 문자형 벡터 또는 string형 스칼라로 지정됩니다. 계층 그래프에 이 계층을 포함하려면 계층 이름을 지정해야 합니다.

데이터형: char | string

입력값 이름으로, {'in1','in2',...,'inN'}으로 지정됩니다. 여기서 N은 계층의 입력값 개수입니다.

데이터형: cell

계층의 출력값 개수. 이 계층은 단일 출력값만 가집니다.

데이터형: double

계층의 출력값 이름. 이 계층은 단일 출력값만 가집니다.

데이터형: cell

예제

모두 축소

입력값이 2개이고 이름이 'add_1'인 덧셈 계층을 만듭니다.

add = additionLayer(2,'Name','add_1')
add = 
  AdditionLayer with properties:

          Name: 'add_1'
     NumInputs: 2
    InputNames: {'in1'  'in2'}

2개의 ReLU 계층을 만들어서 덧셈 계층에 연결합니다. 덧셈 계층은 ReLU 계층의 출력값을 합산합니다.

relu_1 = reluLayer('Name','relu_1');
relu_2 = reluLayer('Name','relu_2');

lgraph = layerGraph;
lgraph = addLayers(lgraph,relu_1);
lgraph = addLayers(lgraph,relu_2);
lgraph = addLayers(lgraph,add);

lgraph = connectLayers(lgraph,'relu_1','add_1/in1');
lgraph = connectLayers(lgraph,'relu_2','add_1/in2');

plot(lgraph)

심층 학습을 위한 간단한 DAG(유방향 비순환 그래프) 네트워크를 만듭니다. 숫자 이미지를 분류하도록 네트워크를 훈련시킵니다. 이 예제의 간단한 네트워크는 다음으로 구성됩니다.

  • 계층이 순차적으로 연결된 기본 분기.

  • 1x1 컨벌루션 계층 1개를 포함하는 지름길 연결. 지름길 연결은 출력 계층에서 네트워크의 이전 계층으로 파라미터 기울기가 보다 쉽게 흐르도록 해 줍니다.

네트워크의 기본 분기를 계층 배열로 만듭니다. 덧셈 계층은 여러 개의 입력값을 요소별로 합산합니다. 덧셈 계층이 합산할 입력값의 개수를 지정합니다. 계층은 모두 고유한 이름을 가져야 합니다.

layers = [
    imageInputLayer([28 28 1],'Name','input')
    
    convolution2dLayer(5,16,'Padding','same','Name','conv_1')
    batchNormalizationLayer('Name','BN_1')
    reluLayer('Name','relu_1')
    
    convolution2dLayer(3,32,'Padding','same','Stride',2,'Name','conv_2')
    batchNormalizationLayer('Name','BN_2')
    reluLayer('Name','relu_2')
    convolution2dLayer(3,32,'Padding','same','Name','conv_3')
    batchNormalizationLayer('Name','BN_3')
    reluLayer('Name','relu_3')
    
    additionLayer(2,'Name','add')
    
    averagePooling2dLayer(2,'Stride',2,'Name','avpool')
    fullyConnectedLayer(10,'Name','fc')
    softmaxLayer('Name','softmax')
    classificationLayer('Name','classOutput')];

계층 배열에서 계층 그래프를 만듭니다. layerGraphlayers에 있는 모든 계층을 순차적으로 연결합니다. 계층 그래프를 플로팅합니다.

lgraph = layerGraph(layers);
figure
plot(lgraph)

1x1 컨벌루션 계층을 만들어서 계층 그래프에 추가합니다. 활성화 크기가 'relu_3' 계층의 활성화 크기와 일치하도록 컨벌루션 필터의 개수와 스트라이드를 지정합니다. 이렇게 지정해 두면 덧셈 계층이 'skipConv' 계층과 'relu_3' 계층의 출력값을 더할 수 있게 됩니다. 계층이 그래프에 있는지 확인하기 위해 계층 그래프를 플로팅합니다.

skipConv = convolution2dLayer(1,32,'Stride',2,'Name','skipConv');
lgraph = addLayers(lgraph,skipConv);
figure
plot(lgraph)

'relu_1' 계층에서 'add' 계층으로 지름길 연결을 만듭니다. 덧셈 계층을 만들 때 계층의 입력값의 개수를 2로 지정했으므로 이 계층은 이름이 각각 'in1''in2'인 2개의 입력값을 갖습니다. 'relu_3' 계층은 이미 'in1' 입력값에 연결되어 있습니다. 'relu_1' 계층을 'skipConv' 계층에 연결하고 'skipConv' 계층을 'add' 계층의 'in2' 입력값에 연결합니다. 이 덧셈 계층이 'relu_3' 계층과 'skipConv' 계층의 출력값을 합산합니다. 계층이 올바르게 연결되었는지 확인하려면 계층 그래프를 플로팅합니다.

lgraph = connectLayers(lgraph,'relu_1','skipConv');
lgraph = connectLayers(lgraph,'skipConv','add/in2');
figure
plot(lgraph);

28x28 회색조 숫자 이미지로 구성된 훈련 데이터와 검증 데이터를 불러옵니다.

[XTrain,YTrain] = digitTrain4DArrayData;
[XValidation,YValidation] = digitTest4DArrayData;

훈련 옵션을 지정하고 네트워크를 훈련시킵니다. trainNetworkValidationFrequency회 반복마다 검증 데이터를 사용하여 네트워크를 검증합니다.

options = trainingOptions('sgdm', ...
    'MaxEpochs',8, ...
    'Shuffle','every-epoch', ...
    'ValidationData',{XValidation,YValidation}, ...
    'ValidationFrequency',30, ...
    'Verbose',false, ...
    'Plots','training-progress');
net = trainNetwork(XTrain,YTrain,lgraph,options);

훈련된 네트워크의 속성을 표시합니다. 네트워크는 DAGNetwork 객체입니다.

net
net = 
  DAGNetwork with properties:

         Layers: [16×1 nnet.cnn.layer.Layer]
    Connections: [16×2 table]

검증 이미지를 분류하고 정확도를 계산합니다. 이 네트워크는 정확도가 매우 높습니다.

YPredicted = classify(net,XValidation);
accuracy = mean(YPredicted == YValidation)
accuracy = 0.9968

R2017b에 개발됨