Main Content

이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.

layerGraph

딥러닝을 위한 신경망 계층의 그래프

설명

계층 그래프는 계층이 여러 계층의 입력값을 가질 수 있고 여러 계층으로 출력값을 보낼 수 있는 보다 복잡한 그래프 구조를 갖는 딥러닝 신경망의 아키텍처를 지정합니다. 이러한 구조를 갖는 신경망을 DAG(유방향 비순환 그래프) 신경망이라 부릅니다. layerGraph 객체를 만든 후에는 객체 함수를 사용하여 그래프를 플로팅하고 계층을 추가하거나, 제거하거나, 연결하거나, 연결을 끊어 수정할 수 있습니다. 신경망을 훈련시키려면 trainNetwork 함수의 입력값으로 계층 그래프를 사용하거나 계층 그래프를 dlnetwork로 변환한 다음 trainnet 또는 사용자 지정 훈련 루프를 사용하여 훈련시키십시오.

생성

설명

예제

lgraph = layerGraph는 계층이 없는 빈 계층 그래프를 만듭니다. addLayers 함수를 사용하여 빈 그래프에 계층을 추가할 수 있습니다.

예제

lgraph = layerGraph(layers)는 신경망 계층 배열로부터 계층 그래프를 만들고 Layers 속성을 설정합니다. lgraph의 계층들은 layers와 동일한 순서로 연결됩니다.

예제

lgraph = layerGraph(net)SeriesNetwork, DAGNetwork 또는 dlnetwork 객체의 계층 그래프를 추출합니다. 예를 들어, 사전 훈련된 신경망의 계층 그래프를 추출하여 전이 학습을 수행할 수 있습니다.

입력 인수

모두 확장

딥러닝 신경망으로, SeriesNetwork, DAGNetwork 또는 dlnetwork 객체로 지정됩니다.

속성

모두 확장

읽기 전용 속성입니다.

신경망 계층으로, Layer 배열로 지정됩니다.

읽기 전용 속성입니다.

계층 연결로, 2개의 열이 있는 테이블로 지정됩니다.

각 테이블 행은 계층 그래프에 있는 하나의 연결을 나타냅니다. 첫 번째 열 Source는 각 연결의 소스를 지정합니다. 두 번째 열 Destination은 각 연결의 대상을 지정합니다. 연결 소스와 대상은 계층 이름이거나 'layerName/IOName' 형태를 갖습니다. 여기서 'IOName'은 계층 입력값 또는 출력값의 이름입니다.

데이터형: table

읽기 전용 속성입니다.

입력 계층의 이름으로, 문자형 벡터로 구성된 셀형 배열로 지정됩니다.

데이터형: cell

읽기 전용 속성입니다.

출력 계층의 이름으로, 문자형 벡터로 구성된 셀형 배열로 지정됩니다.

데이터형: cell

객체 함수

addLayers계층 그래프 또는 신경망에 계층 추가
removeLayers계층 그래프 또는 신경망에서 계층 제거
replaceLayerReplace layer in neural network
connectLayers계층 그래프 또는 신경망에서 계층 연결
disconnectLayers계층 그래프 또는 신경망에서 계층 연결 끊기
plot신경망 아키텍처 플로팅

예제

모두 축소

빈 계층 그래프와 계층 배열을 만듭니다. 계층 그래프에 계층을 추가하고 그래프를 플로팅합니다. addLayers는 계층을 순차적으로 연결합니다.

lgraph = layerGraph;

layers = [
    imageInputLayer([32 32 3],'Name','input')  
    convolution2dLayer(3,16,'Padding','same','Name','conv_1')
    batchNormalizationLayer('Name','BN_1')
    reluLayer('Name','relu_1')];

lgraph = addLayers(lgraph,layers);
figure
plot(lgraph)

Figure contains an axes object. The axes object contains an object of type graphplot.

계층 배열을 만듭니다.

layers = [
    imageInputLayer([28 28 1],'Name','input')  
    convolution2dLayer(3,16,'Padding','same','Name','conv_1')
    batchNormalizationLayer('Name','BN_1')
    reluLayer('Name','relu_1')];

계층 배열에서 계층 그래프를 만듭니다. layerGraphlayers에 있는 모든 계층을 순차적으로 연결합니다. 계층 그래프를 플로팅합니다.

lgraph = layerGraph(layers);
figure
plot(lgraph)

Figure contains an axes object. The axes object contains an object of type graphplot.

사전 훈련된 SqueezeNet 신경망을 불러옵니다. 이 훈련된 신경망을 사용하여 분류와 예측을 수행할 수 있습니다.

net = squeezenet;

신경망 구조를 수정하려면 먼저 layerGraph를 사용하여 DAG 신경망의 구조를 추출합니다. 그런 다음 LayerGraph 객체의 함수를 사용하여 신경망 아키텍처를 수정할 수 있습니다.

lgraph = layerGraph(net)
lgraph = 
  LayerGraph with properties:

     InputNames: {'data'}
    OutputNames: {'ClassificationLayer_predictions'}
         Layers: [68x1 nnet.cnn.layer.Layer]
    Connections: [75x2 table]

딥러닝을 위한 간단한 DAG(유방향 비순환 그래프) 신경망을 만듭니다. 숫자 영상을 분류하도록 신경망을 훈련시킵니다. 이 예제의 간단한 신경망은 다음으로 구성됩니다.

  • 계층이 순차적으로 연결된 기본 분기.

  • 1×1 컨벌루션 계층 1개를 포함하는 지름길 연결. 지름길 연결은 출력 계층에서 신경망의 이전 계층으로 파라미터 기울기가 보다 쉽게 흐르도록 해 줍니다.

신경망의 기본 분기를 계층 배열로 만듭니다. 덧셈 계층은 여러 개의 입력값을 요소별로 합산합니다. 덧셈 계층이 합산할 입력값의 개수를 지정합니다. 나중에 쉽게 연결을 추가하려면 첫 번째 ReLU 계층과 덧셈 계층에 이름을 지정하십시오.

layers = [
    imageInputLayer([28 28 1])
    
    convolution2dLayer(5,16,'Padding','same')
    batchNormalizationLayer
    reluLayer('Name','relu_1')
    
    convolution2dLayer(3,32,'Padding','same','Stride',2)
    batchNormalizationLayer
    reluLayer
    convolution2dLayer(3,32,'Padding','same')
    batchNormalizationLayer
    reluLayer
    
    additionLayer(2,'Name','add')
    
    averagePooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer];

계층 배열에서 계층 그래프를 만듭니다. layerGraphlayers에 있는 모든 계층을 순차적으로 연결합니다. 계층 그래프를 플로팅합니다.

lgraph = layerGraph(layers);
figure
plot(lgraph)

Figure contains an axes object. The axes object contains an object of type graphplot.

1×1 컨벌루션 계층을 만들어서 계층 그래프에 추가합니다. 활성화 크기가 세 번째 ReLU 계층의 활성화 크기와 일치하도록 컨벌루션 필터의 개수와 스트라이드를 지정합니다. 이렇게 지정해 두면 덧셈 계층이 세 번째 ReLU 계층과 1×1 컨벌루션 계층의 출력값을 더할 수 있게 됩니다. 계층이 그래프에 있는지 확인하기 위해 계층 그래프를 플로팅합니다.

skipConv = convolution2dLayer(1,32,'Stride',2,'Name','skipConv');
lgraph = addLayers(lgraph,skipConv);
figure
plot(lgraph)

Figure contains an axes object. The axes object contains an object of type graphplot.

'relu_1' 계층에서 'add' 계층으로 지름길 연결을 만듭니다. 덧셈 계층을 만들 때 계층의 입력값의 개수를 2로 지정했으므로 이 계층은 이름이 각각 'in1''in2'인 2개의 입력값을 갖습니다. 세 번째 ReLU 계층은 이미 'in1' 입력값에 연결되어 있습니다. 'relu_1' 계층을 'skipConv' 계층에 연결하고 'skipConv' 계층을 'add' 계층의 'in2' 입력값에 연결합니다. 이 덧셈 계층이 세 번째 ReLU 계층과 'skipConv' 계층의 출력값을 합산합니다. 계층이 올바르게 연결되었는지 확인하려면 계층 그래프를 플로팅합니다.

lgraph = connectLayers(lgraph,'relu_1','skipConv');
lgraph = connectLayers(lgraph,'skipConv','add/in2');
figure
plot(lgraph);

Figure contains an axes object. The axes object contains an object of type graphplot.

28×28 회색조 숫자 영상으로 구성된 훈련 데이터와 검증 데이터를 불러옵니다.

[XTrain,YTrain] = digitTrain4DArrayData;
[XValidation,YValidation] = digitTest4DArrayData;

훈련 옵션을 지정하고 신경망을 훈련시킵니다. trainNetworkValidationFrequency회 반복마다 검증 데이터를 사용하여 신경망을 검증합니다.

options = trainingOptions('sgdm', ...
    'MaxEpochs',8, ...
    'Shuffle','every-epoch', ...
    'ValidationData',{XValidation,YValidation}, ...
    'ValidationFrequency',30, ...
    'Verbose',false, ...
    'Plots','training-progress');
net = trainNetwork(XTrain,YTrain,lgraph,options);

Figure Training Progress (19-Aug-2023 11:52:58) contains 2 axes objects and another object of type uigridlayout. Axes object 1 with xlabel Iteration, ylabel Loss contains 15 objects of type patch, text, line. Axes object 2 with xlabel Iteration, ylabel Accuracy (%) contains 15 objects of type patch, text, line.

훈련된 신경망의 속성을 표시합니다. 신경망은 DAGNetwork 객체입니다.

net
net = 
  DAGNetwork with properties:

         Layers: [16x1 nnet.cnn.layer.Layer]
    Connections: [16x2 table]
     InputNames: {'imageinput'}
    OutputNames: {'classoutput'}

검증 영상을 분류하고 정확도를 계산합니다. 이 신경망은 정확도가 매우 높습니다.

YPredicted = classify(net,XValidation);
accuracy = mean(YPredicted == YValidation)
accuracy = 0.9934

제한 사항

  • layer graph 객체에는 양자화 정보가 포함되지 않습니다. 양자화된 신경망에서 계층 그래프를 추출한 다음 assembleNetwork 또는 dlnetwork를 사용하여 신경망을 재조합하면 신경망에서 양자화 정보가 제거됩니다.

버전 내역

R2017b에 개발됨