Main Content

이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.

심층 신경망 구축하기

MATLAB® 코드를 사용하거나 심층 신경망 디자이너를 대화형 방식으로 사용하여 시퀀스 및 테이블 형식 데이터를 위한 신경망 구축

신경망 아키텍처를 처음부터 정의하여 분류, 회귀, 전망과 같은 작업을 위한 새로운 심층 신경망을 만듭니다. MATLAB을 사용하거나 심층 신경망 디자이너를 대화형 방식으로 사용하여 신경망을 구축합니다.

대부분의 작업에서 내장 계층을 사용할 수 있습니다. 작업에 필요한 내장 계층이 없는 경우 자신만의 고유한 사용자 지정 계층을 정의할 수 있습니다. 사용자 지정 출력 계층을 사용하여 사용자 지정 손실 함수를 지정하고 학습 가능한 파라미터와 상태 파라미터를 포함하는 사용자 지정 계층을 정의할 수 있습니다. 사용자 지정 계층을 정의한 후에는 이 계층이 유효하고, GPU와 호환되며, 올바르게 정의된 기울기를 출력하는지 확인할 수 있습니다. 지원되는 계층 목록은 딥러닝 계층 목록 항목을 참조하십시오.

계층 그래프가 지원하지 않는 모델의 경우 사용자 지정 모델을 함수로 정의할 수 있습니다. 자세한 내용은 사용자 지정 훈련 루프, 손실 함수 및 신경망 정의 항목을 참조하십시오.

심층 신경망 디자이너딥러닝 신경망의 설계, 시각화 및 훈련

함수

모두 확장

입력 계층

sequenceInputLayer시퀀스 입력 계층
featureInputLayer특징 입력 계층 (R2020b 이후)

순환 계층

lstmLayer장단기 기억(LSTM) 계층
bilstmLayerRNN(순환 신경망)의 BiLSTM(양방향 장단기 기억) 계층
gruLayerGated recurrent unit (GRU) layer for recurrent neural network (RNN) (R2020a 이후)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (R2022b 이후)

컨벌루션, 어텐션, 완전 연결 계층

convolution1dLayer1차원 컨벌루션 계층 (R2021b 이후)
transposedConv1dLayerTransposed 1-D convolution layer (R2022a 이후)
selfAttentionLayerSelf-attention layer (R2023a 이후)
fullyConnectedLayer완전 연결 계층

활성화 및 드롭아웃 계층

reluLayerReLU(Rectified Linear Unit) 계층
leakyReluLayerLeaky ReLU(Rectified Linear Unit) 계층
clippedReluLayerClipped ReLU(Rectified Linear Unit) 계층
eluLayerExponential linear unit (ELU) layer (R2019a 이후)
tanhLayer쌍곡탄젠트(tanh) 계층 (R2019a 이후)
swishLayerSwish layer (R2021a 이후)
geluLayerGaussian error linear unit (GELU) layer (R2022b 이후)
sigmoidLayer시그모이드 계층 (R2020b 이후)
softmaxLayer소프트맥스 계층
dropoutLayer드롭아웃 계층
functionLayerFunction layer (R2021b 이후)

정규화 계층

batchNormalizationLayer배치 정규화 계층
groupNormalizationLayerGroup normalization layer (R2020b 이후)
instanceNormalizationLayerInstance normalization layer (R2021a 이후)
layerNormalizationLayer계층 정규화 계층 (R2021a 이후)
crossChannelNormalizationLayer 채널별 국소 응답 정규화 계층

풀링 계층

maxPooling1dLayer1-D max pooling layer (R2021b 이후)
averagePooling1dLayer1-D average pooling layer (R2021b 이후)
globalMaxPooling1dLayer1-D global max pooling layer (R2021b 이후)
globalAveragePooling1dLayer1-D global average pooling layer (R2021b 이후)

결합 계층

additionLayer덧셈 계층
multiplicationLayer곱셈 계층 (R2020b 이후)
concatenationLayer결합 계층 (R2019a 이후)
depthConcatenationLayer심도 결합 계층

데이터 조작

sequenceFoldingLayer시퀀스 접기 계층 (R2019a 이후)
sequenceUnfoldingLayerSequence unfolding layer (R2019a 이후)
flattenLayer평탄화 계층 (R2019a 이후)

출력 계층

classificationLayer분류 출력 계층
regressionLayer회귀 출력 계층
layerGraph딥러닝을 위한 신경망 계층의 그래프
plot신경망 아키텍처 플로팅
addLayersAdd layers to layer graph or network
removeLayers계층 그래프 또는 신경망에서 계층 제거
replaceLayerReplace layer in layer graph or network
connectLayers계층 그래프 또는 신경망에서 계층 연결
disconnectLayers계층 그래프 또는 신경망에서 계층 연결 끊기
DAGNetwork딥러닝을 위한 DAG(유방향 비순환 그래프) 신경망
isequalCheck equality of deep learning layer graphs or networks (R2021a 이후)
isequalnCheck equality of deep learning layer graphs or networks ignoring NaN values (R2021a 이후)
analyzeNetwork딥러닝 신경망 아키텍처 분석
dlnetworkDeep learning network for custom training loops (R2019b 이후)
addInputLayerAdd input layer to network (R2022b 이후)
summary신경망 요약 출력 (R2022b 이후)
initializeInitialize learnable and state parameters of a dlnetwork (R2021a 이후)
networkDataLayoutDeep learning network data layout for learnable parameter initialization (R2022b 이후)
checkLayerCheck validity of custom or function layer

도움말 항목

내장 계층

사용자 지정 계층