이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
additionLayer
덧셈 계층
설명
덧셈 계층은 여러 신경망 계층으로부터의 입력값을 요소별로 더합니다.
계층을 만들 때 계층의 입력값의 개수를 지정합니다. 계층의 입력값은 'in1','in2',...,'inN'
과 같은 이름을 갖습니다. 여기서 N
은 입력값의 개수입니다. 입력값 이름은 connectLayers
또는 disconnectLayers
를 사용하여 계층을 연결하거나 연결을 끊을 때 사용합니다. 덧셈 계층의 입력값은 모두 동일한 차원을 가져야 합니다.
생성
속성
NumInputs
— 입력값의 개수
양의 정수
계층에 대한 입력값의 개수로, 2보다 크거나 같은 양의 정수로 지정됩니다.
입력값은 'in1','in2',...,'inN'
과 같은 이름을 갖습니다. 여기서 N
은 NumInputs
입니다. 예를 들어 NumInputs
가 3인 경우, 입력값은 'in1','in2'
, 'in3'
이라는 이름을 갖습니다. 입력값 이름은 connectLayers
함수 또는 disconnectLayers
함수를 사용하여 계층을 연결하거나 연결을 끊을 때 사용합니다.
Name
— 계층 이름
''
(디폴트 값) | 문자형 벡터 | string형 스칼라
계층 이름으로, 문자형 벡터 또는 string형 스칼라로 지정됩니다. Layer
배열 입력값에 대해 trainNetwork
, assembleNetwork
, layerGraph
, dlnetwork
함수는 이름이 ''
인 계층에 자동으로 이름을 할당합니다.
데이터형: char
| string
InputNames
— 입력값 이름
{'in1','in2',…,'inN'}
(디폴트 값)
입력값 이름으로, {'in1','in2',...,'inN'}
으로 지정됩니다. 여기서 N
은 계층의 입력값 개수입니다.
데이터형: cell
NumOutputs
— 출력값 개수
1
(디폴트 값)
읽기 전용 속성입니다.
계층의 출력값 개수. 이 계층은 단일 출력값만 가집니다.
데이터형: double
OutputNames
— 출력값 이름
{'out'}
(디폴트 값)
읽기 전용 속성입니다.
계층의 출력값 이름. 이 계층은 단일 출력값만 가집니다.
데이터형: cell
예제
덧셈 계층을 만들고 연결하기
입력값이 2개이고 이름이 'add_1'
인 덧셈 계층을 만듭니다.
add = additionLayer(2,'Name','add_1')
add = AdditionLayer with properties: Name: 'add_1' NumInputs: 2 InputNames: {'in1' 'in2'}
2개의 ReLU 계층을 만들어서 덧셈 계층에 연결합니다. 덧셈 계층은 ReLU 계층의 출력값을 합산합니다.
relu_1 = reluLayer('Name','relu_1'); relu_2 = reluLayer('Name','relu_2'); lgraph = layerGraph; lgraph = addLayers(lgraph,relu_1); lgraph = addLayers(lgraph,relu_2); lgraph = addLayers(lgraph,add); lgraph = connectLayers(lgraph,'relu_1','add_1/in1'); lgraph = connectLayers(lgraph,'relu_2','add_1/in2'); plot(lgraph)
간단한 DAG 신경망 만들기
딥러닝을 위한 간단한 DAG(유방향 비순환 그래프) 신경망을 만듭니다. 숫자 영상을 분류하도록 신경망을 훈련시킵니다. 이 예제의 간단한 신경망은 다음으로 구성됩니다.
계층이 순차적으로 연결된 기본 분기.
1×1 컨벌루션 계층 1개를 포함하는 지름길 연결. 지름길 연결은 출력 계층에서 신경망의 이전 계층으로 파라미터 기울기가 보다 쉽게 흐르도록 해 줍니다.
신경망의 기본 분기를 계층 배열로 만듭니다. 덧셈 계층은 여러 개의 입력값을 요소별로 합산합니다. 덧셈 계층이 합산할 입력값의 개수를 지정합니다. 나중에 쉽게 연결을 추가하려면 첫 번째 ReLU 계층과 덧셈 계층에 이름을 지정하십시오.
layers = [ imageInputLayer([28 28 1]) convolution2dLayer(5,16,'Padding','same') batchNormalizationLayer reluLayer('Name','relu_1') convolution2dLayer(3,32,'Padding','same','Stride',2) batchNormalizationLayer reluLayer convolution2dLayer(3,32,'Padding','same') batchNormalizationLayer reluLayer additionLayer(2,'Name','add') averagePooling2dLayer(2,'Stride',2) fullyConnectedLayer(10) softmaxLayer classificationLayer];
계층 배열에서 계층 그래프를 만듭니다. layerGraph
는 layers
에 있는 모든 계층을 순차적으로 연결합니다. 계층 그래프를 플로팅합니다.
lgraph = layerGraph(layers); figure plot(lgraph)
1×1 컨벌루션 계층을 만들어서 계층 그래프에 추가합니다. 활성화 크기가 세 번째 ReLU 계층의 활성화 크기와 일치하도록 컨벌루션 필터의 개수와 스트라이드를 지정합니다. 이렇게 지정해 두면 덧셈 계층이 세 번째 ReLU 계층과 1×1 컨벌루션 계층의 출력값을 더할 수 있게 됩니다. 계층이 그래프에 있는지 확인하기 위해 계층 그래프를 플로팅합니다.
skipConv = convolution2dLayer(1,32,'Stride',2,'Name','skipConv'); lgraph = addLayers(lgraph,skipConv); figure plot(lgraph)
'relu_1'
계층에서 'add'
계층으로 지름길 연결을 만듭니다. 덧셈 계층을 만들 때 계층의 입력값의 개수를 2로 지정했으므로 이 계층은 이름이 각각 'in1'
과 'in2'
인 2개의 입력값을 갖습니다. 세 번째 ReLU 계층은 이미 'in1'
입력값에 연결되어 있습니다. 'relu_1'
계층을 'skipConv'
계층에 연결하고 'skipConv'
계층을 'add'
계층의 'in2'
입력값에 연결합니다. 이 덧셈 계층이 세 번째 ReLU 계층과 'skipConv'
계층의 출력값을 합산합니다. 계층이 올바르게 연결되었는지 확인하려면 계층 그래프를 플로팅합니다.
lgraph = connectLayers(lgraph,'relu_1','skipConv'); lgraph = connectLayers(lgraph,'skipConv','add/in2'); figure plot(lgraph);
28×28 회색조 숫자 영상으로 구성된 훈련 데이터와 검증 데이터를 불러옵니다.
[XTrain,YTrain] = digitTrain4DArrayData; [XValidation,YValidation] = digitTest4DArrayData;
훈련 옵션을 지정하고 신경망을 훈련시킵니다. trainNetwork
는 ValidationFrequency
회 반복마다 검증 데이터를 사용하여 신경망을 검증합니다.
options = trainingOptions('sgdm', ... 'MaxEpochs',8, ... 'Shuffle','every-epoch', ... 'ValidationData',{XValidation,YValidation}, ... 'ValidationFrequency',30, ... 'Verbose',false, ... 'Plots','training-progress'); net = trainNetwork(XTrain,YTrain,lgraph,options);
훈련된 신경망의 속성을 표시합니다. 신경망은 DAGNetwork
객체입니다.
net
net = DAGNetwork with properties: Layers: [16x1 nnet.cnn.layer.Layer] Connections: [16x2 table] InputNames: {'imageinput'} OutputNames: {'classoutput'}
검증 영상을 분류하고 정확도를 계산합니다. 이 신경망은 정확도가 매우 높습니다.
YPredicted = classify(net,XValidation); accuracy = mean(YPredicted == YValidation)
accuracy = 0.9936
확장 기능
C/C++ 코드 생성
MATLAB® Coder™를 사용하여 C 코드나 C++ 코드를 생성할 수 있습니다.
GPU 코드 생성
GPU Coder™를 사용하여 NVIDIA® GPU용 CUDA® 코드를 생성할 수 있습니다.
버전 내역
R2017b에 개발됨
MATLAB 명령
다음 MATLAB 명령에 해당하는 링크를 클릭했습니다.
명령을 실행하려면 MATLAB 명령 창에 입력하십시오. 웹 브라우저는 MATLAB 명령을 지원하지 않습니다.
Select a Web Site
Choose a web site to get translated content where available and see local events and offers. Based on your location, we recommend that you select: .
You can also select a web site from the following list:
How to Get Best Site Performance
Select the China site (in Chinese or English) for best site performance. Other MathWorks country sites are not optimized for visits from your location.
Americas
- América Latina (Español)
- Canada (English)
- United States (English)
Europe
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)