이 페이지의 최신 내용은 아직 번역되지 않았습니다. 최신 내용은 영문으로 볼 수 있습니다.

connectLayers

계층 그래프에서 계층 연결

설명

예제

newlgraph = connectLayers(lgraph,s,d)는 계층 그래프 lgraph에서 소스 계층 s를 대상 계층 d에 연결합니다. 새로운 계층 그래프 newlgraphlgraph와 동일한 계층을 포함하면서 새 연결도 같이 포함합니다.

예제

모두 축소

입력값이 2개이고 이름이 'add_1'인 덧셈 계층을 만듭니다.

add = additionLayer(2,'Name','add_1')
add = 
  AdditionLayer with properties:

          Name: 'add_1'
     NumInputs: 2
    InputNames: {'in1'  'in2'}

2개의 ReLU 계층을 만들어서 덧셈 계층에 연결합니다. 덧셈 계층은 ReLU 계층의 출력값을 합산합니다.

relu_1 = reluLayer('Name','relu_1');
relu_2 = reluLayer('Name','relu_2');

lgraph = layerGraph;
lgraph = addLayers(lgraph,relu_1);
lgraph = addLayers(lgraph,relu_2);
lgraph = addLayers(lgraph,add);

lgraph = connectLayers(lgraph,'relu_1','add_1/in1');
lgraph = connectLayers(lgraph,'relu_2','add_1/in2');

plot(lgraph)

심층 학습을 위한 간단한 DAG(유방향 비순환 그래프) 네트워크를 만듭니다. 숫자 이미지를 분류하도록 네트워크를 훈련시킵니다. 이 예제의 간단한 네트워크는 다음으로 구성됩니다.

  • 계층이 순차적으로 연결된 기본 분기.

  • 1x1 컨벌루션 계층 1개를 포함하는 지름길 연결. 지름길 연결은 출력 계층에서 네트워크의 이전 계층으로 파라미터 기울기가 보다 쉽게 흐르도록 해 줍니다.

네트워크의 기본 분기를 계층 배열로 만듭니다. 덧셈 계층은 여러 개의 입력값을 요소별로 합산합니다. 덧셈 계층이 합산할 입력값의 개수를 지정합니다. 계층은 모두 고유한 이름을 가져야 합니다.

layers = [
    imageInputLayer([28 28 1],'Name','input')
    
    convolution2dLayer(5,16,'Padding','same','Name','conv_1')
    batchNormalizationLayer('Name','BN_1')
    reluLayer('Name','relu_1')
    
    convolution2dLayer(3,32,'Padding','same','Stride',2,'Name','conv_2')
    batchNormalizationLayer('Name','BN_2')
    reluLayer('Name','relu_2')
    convolution2dLayer(3,32,'Padding','same','Name','conv_3')
    batchNormalizationLayer('Name','BN_3')
    reluLayer('Name','relu_3')
    
    additionLayer(2,'Name','add')
    
    averagePooling2dLayer(2,'Stride',2,'Name','avpool')
    fullyConnectedLayer(10,'Name','fc')
    softmaxLayer('Name','softmax')
    classificationLayer('Name','classOutput')];

계층 배열에서 계층 그래프를 만듭니다. layerGraphlayers에 있는 모든 계층을 순차적으로 연결합니다. 계층 그래프를 플로팅합니다.

lgraph = layerGraph(layers);
figure
plot(lgraph)

1x1 컨벌루션 계층을 만들어서 계층 그래프에 추가합니다. 활성화 크기가 'relu_3' 계층의 활성화 크기와 일치하도록 컨벌루션 필터의 개수와 스트라이드를 지정합니다. 이렇게 지정해 두면 덧셈 계층이 'skipConv' 계층과 'relu_3' 계층의 출력값을 더할 수 있게 됩니다. 계층이 그래프에 있는지 확인하기 위해 계층 그래프를 플로팅합니다.

skipConv = convolution2dLayer(1,32,'Stride',2,'Name','skipConv');
lgraph = addLayers(lgraph,skipConv);
figure
plot(lgraph)

'relu_1' 계층에서 'add' 계층으로 지름길 연결을 만듭니다. 덧셈 계층을 만들 때 계층의 입력값의 개수를 2로 지정했으므로 이 계층은 이름이 각각 'in1''in2'인 2개의 입력값을 갖습니다. 'relu_3' 계층은 이미 'in1' 입력값에 연결되어 있습니다. 'relu_1' 계층을 'skipConv' 계층에 연결하고 'skipConv' 계층을 'add' 계층의 'in2' 입력값에 연결합니다. 이 덧셈 계층이 'relu_3' 계층과 'skipConv' 계층의 출력값을 합산합니다. 계층이 올바르게 연결되었는지 확인하려면 계층 그래프를 플로팅합니다.

lgraph = connectLayers(lgraph,'relu_1','skipConv');
lgraph = connectLayers(lgraph,'skipConv','add/in2');
figure
plot(lgraph);

28x28 회색조 숫자 이미지로 구성된 훈련 데이터와 검증 데이터를 불러옵니다.

[XTrain,YTrain] = digitTrain4DArrayData;
[XValidation,YValidation] = digitTest4DArrayData;

훈련 옵션을 지정하고 네트워크를 훈련시킵니다. trainNetworkValidationFrequency회 반복마다 검증 데이터를 사용하여 네트워크를 검증합니다.

options = trainingOptions('sgdm', ...
    'MaxEpochs',8, ...
    'Shuffle','every-epoch', ...
    'ValidationData',{XValidation,YValidation}, ...
    'ValidationFrequency',30, ...
    'Verbose',false, ...
    'Plots','training-progress');
net = trainNetwork(XTrain,YTrain,lgraph,options);

훈련된 네트워크의 속성을 표시합니다. 네트워크는 DAGNetwork 객체입니다.

net
net = 
  DAGNetwork with properties:

         Layers: [16×1 nnet.cnn.layer.Layer]
    Connections: [16×2 table]

검증 이미지를 분류하고 정확도를 계산합니다. 이 네트워크는 정확도가 매우 높습니다.

YPredicted = classify(net,XValidation);
accuracy = mean(YPredicted == YValidation)
accuracy = 0.9968

입력 인수

모두 축소

계층 그래프로, LayerGraph 객체로 지정됩니다. 계층 그래프를 만들려면 layerGraph를 사용하십시오.

연결 소스로, 문자형 벡터로 지정됩니다.

  • 소스 계층이 1개의 출력값을 갖는 경우, s는 계층의 이름입니다.

  • 소스 계층이 여러 개의 출력값을 갖는 경우, s'layerName/outputName'과 같이 계층 이름과 문자 /와 계층 출력값이 결합된 형태의 이름입니다.

예: 'conv1'

예: 'mpool/indices'

연결 대상으로, 문자형 벡터로 지정됩니다.

  • 대상 계층이 1개의 입력값을 갖는 경우, d는 계층의 이름입니다.

  • 대상 계층이 여러 개의 입력값을 갖는 경우, d'layerName/inputName'과 같이 계층 이름과 문자 /와 계층 출력값이 결합된 형태의 이름입니다.

예: 'fc'

예: 'addlayer1/in2'

출력 인수

모두 축소

출력 계층 그래프로, LayerGraph 객체로 반환됩니다.

R2017b에 개발됨