Main Content

심층 신경망 구축하기

명령줄 함수를 사용하거나 심층 신경망 디자이너 앱을 대화형 방식으로 사용하여 신경망을 구축합니다.

MATLAB® 코드를 사용하거나 심층 신경망 디자이너 앱을 대화형 방식으로 사용하여 신경망을 처음부터 구축합니다. 내장 계층을 사용하여 분류와 회귀 같은 작업에 사용할 신경망을 생성합니다. 내장 계층 목록을 보려면 딥러닝 계층 목록 항목을 참조하십시오. 그런 다음 신경망 분석을 통해 신경망 아키텍처를 검토하여 훈련에 앞서 문제가 있지 않은지 확인할 수 있습니다.

내장 계층이 사용자가 하려는 작업에 필요한 계층을 제공하지 않는 경우 자신만의 고유한 사용자 지정 딥러닝 계층을 정의할 수 있습니다. 사용자 지정 출력 계층을 사용하여 사용자 지정 손실 함수를 지정하고 학습 가능한 파라미터를 포함하거나 포함하지 않는 사용자 지정 계층을 정의할 수 있습니다. 사용자 지정 계층을 정의한 후에는 이 계층이 유효하고, GPU와 호환되며, 올바르게 정의된 기울기를 출력하는지 확인할 수 있습니다.

계층 그래프를 사용하여 만들 수 없는 신경망의 경우 사용자 지정 신경망을 함수로 정의할 수 있습니다. 함수로 정의된 딥러닝 모델을 훈련시키는 방법을 보여주는 예제는 Train Network Using Model Function 항목을 참조하십시오.

심층 신경망 디자이너딥러닝 신경망의 설계, 시각화 및 훈련

함수

모두 확장

입력 계층

imageInputLayer영상 입력 계층
image3dInputLayer3차원 영상 입력 계층
sequenceInputLayer시퀀스 입력 계층
featureInputLayer특징 입력 계층

컨벌루션 계층과 완전 연결 계층

convolution2dLayer2차원 컨벌루션 계층
convolution3dLayer3-D convolutional layer
groupedConvolution2dLayer2-D grouped convolutional layer
transposedConv2dLayerTransposed 2-D convolution layer
transposedConv3dLayerTransposed 3-D convolution layer
fullyConnectedLayer완전 연결 계층
selfAttentionLayerSelf-attention layer

순환 계층

lstmLayer장단기 기억(LSTM) 계층
bilstmLayerRNN(순환 신경망)의 BiLSTM(양방향 장단기 기억) 계층
gruLayerGated recurrent unit (GRU) layer for recurrent neural network (RNN)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN)

활성화 계층

reluLayerReLU(Rectified Linear Unit) 계층
leakyReluLayerLeaky ReLU(Rectified Linear Unit) 계층
clippedReluLayerClipped ReLU(Rectified Linear Unit) 계층
eluLayerExponential linear unit (ELU) layer
tanhLayer쌍곡탄젠트(tanh) 계층
swishLayerSwish layer
geluLayerGaussian error linear unit (GELU) layer
softmaxLayer소프트맥스 계층
sigmoidLayer시그모이드 계층
functionLayerFunction layer

정규화 계층

batchNormalizationLayer배치 정규화 계층
groupNormalizationLayerGroup normalization layer
instanceNormalizationLayerInstance normalization layer
layerNormalizationLayer계층 정규화 계층
crossChannelNormalizationLayer 채널별 국소 응답 정규화 계층

유틸리티 계층

dropoutLayer드롭아웃 계층
crop2dLayer2-D crop layer
crop3dLayer3-D crop layer

데이터 조작

sequenceFoldingLayer시퀀스 접기 계층
sequenceUnfoldingLayerSequence unfolding layer
flattenLayer평탄화 계층

풀링 및 언풀링 계층

averagePooling2dLayer평균값 풀링 계층
averagePooling3dLayer3-D average pooling layer
globalAveragePooling2dLayer2-D global average pooling layer
globalAveragePooling3dLayer3-D global average pooling layer
globalMaxPooling2dLayerGlobal max pooling layer
globalMaxPooling3dLayer3-D global max pooling layer
maxPooling2dLayer최댓값 풀링 계층
maxPooling3dLayer3-D max pooling layer
maxUnpooling2dLayer최댓값 언풀링 계층

결합 계층

additionLayer덧셈 계층
multiplicationLayer곱셈 계층
concatenationLayer결합 계층
depthConcatenationLayer심도 결합 계층

출력 계층

classificationLayer분류 출력 계층
regressionLayer회귀 출력 계층
layerGraph딥러닝을 위한 신경망 계층의 그래프
plot신경망 아키텍처 플로팅
addLayersAdd layers to layer graph or network
removeLayers계층 그래프 또는 신경망에서 계층 제거
replaceLayerReplace layer in layer graph or network
connectLayers계층 그래프 또는 신경망에서 계층 연결
disconnectLayers계층 그래프 또는 신경망에서 계층 연결 끊기
DAGNetwork딥러닝을 위한 DAG(유방향 비순환 그래프) 신경망
resnetLayersCreate 2-D residual network
resnet3dLayersCreate 3-D residual network
isequalCheck equality of deep learning layer graphs or networks
isequalnCheck equality of deep learning layer graphs or networks ignoring NaN values
analyzeNetwork딥러닝 신경망 아키텍처 분석
resetState신경망의 상태 파라미터 재설정
dlnetworkDeep learning network for custom training loops
addInputLayerAdd input layer to network
summaryPrint network summary
initializeInitialize learnable and state parameters of a dlnetwork
networkDataLayoutDeep learning network data layout for learnable parameter initialization
checkLayerCheck validity of custom or function layer
setL2Factor계층의 학습 가능한 파라미터에 대한 L2 정규화 인자 설정
getL2Factor계층의 학습 가능한 파라미터에 대한 L2 정규화 인자 가져오기
setLearnRateFactor계층의 학습 가능한 파라미터에 대한 학습률 인자 설정
getLearnRateFactor계층의 학습 가능한 파라미터에 대한 학습률 인자 가져오기

도움말 항목

내장 계층

사용자 지정 계층