Main Content

영상에 대한 심층 신경망 사용자 지정

딥러닝 훈련 루프 및 손실 함수 사용자 지정

trainingOptions 함수가 작업에 필요한 훈련 옵션을 제공하지 않거나 사용자 지정한 출력 계층이 필요한 손실 함수를 지원하지 않을 경우에는 사용자 지정 훈련 루프를 정의할 수 있습니다. 계층 그래프를 사용하여 만들 수 없는 신경망의 경우 사용자 지정 신경망을 함수로 정의할 수 있습니다. 자세한 내용은 사용자 지정 훈련 루프, 손실 함수 및 신경망 정의 항목을 참조하십시오.

함수

모두 확장

dlnetworkDeep learning network for custom training loops
forwardCompute deep learning network output for training
predictCompute deep learning network output for inference
adamupdateUpdate parameters using adaptive moment estimation (Adam)
rmspropupdate Update parameters using root mean squared propagation (RMSProp)
sgdmupdate Update parameters using stochastic gradient descent with momentum (SGDM)
dlupdate Update parameters using custom function
minibatchqueueCreate mini-batches for deep learning
onehotencodeEncode data labels into one-hot vectors
onehotdecodeDecode probability vectors into class labels
initializeInitialize learnable and state parameters of a dlnetwork
plot신경망 아키텍처 플로팅
addLayersAdd layers to layer graph or network
removeLayers계층 그래프 또는 신경망에서 계층 제거
connectLayersConnect layers in layer graph or network
disconnectLayers계층 그래프 또는 신경망에서 계층 연결 끊기
replaceLayerReplace layer in layer graph or network
summaryPrint network summary
trainingProgressMonitorMonitor and plot training progress for deep learning custom training loops
dlarray사용자 지정 훈련 루프를 위한 딥러닝 배열
dlgradientCompute gradients for custom training loops using automatic differentiation
dlfevalEvaluate deep learning model for custom training loops

입력 계층

imageInputLayer영상 입력 계층
image3dInputLayer3차원 영상 입력 계층

컨벌루션 계층과 완전 연결 계층

convolution2dLayer2차원 컨벌루션 계층
convolution3dLayer3-D convolutional layer
groupedConvolution2dLayer2-D grouped convolutional layer
transposedConv2dLayerTransposed 2-D convolution layer
transposedConv3dLayerTransposed 3-D convolution layer
fullyConnectedLayer완전 연결 계층

활성화 계층

reluLayerReLU(Rectified Linear Unit) 계층
leakyReluLayerLeaky ReLU(Rectified Linear Unit) 계층
clippedReluLayerClipped ReLU(Rectified Linear Unit) 계층
eluLayerExponential linear unit (ELU) layer
tanhLayer쌍곡탄젠트(tanh) 계층
swishLayerSwish layer
geluLayerGaussian error linear unit (GELU) layer
functionLayerFunction layer

정규화, 드롭아웃 및 자르기 계층

batchNormalizationLayer배치 정규화 계층
groupNormalizationLayerGroup normalization layer
instanceNormalizationLayerInstance normalization layer
layerNormalizationLayer계층 정규화 계층
crossChannelNormalizationLayer 채널별 국소 응답 정규화 계층
dropoutLayer드롭아웃 계층
crop2dLayer2-D crop layer
crop3dLayer3-D crop layer

풀링 및 언풀링 계층

averagePooling2dLayer평균값 풀링 계층
averagePooling3dLayer3-D average pooling layer
globalAveragePooling2dLayer2-D global average pooling layer
globalAveragePooling3dLayer3-D global average pooling layer
globalMaxPooling2dLayerGlobal max pooling layer
globalMaxPooling3dLayer3-D global max pooling layer
maxPooling2dLayer최댓값 풀링 계층
maxPooling3dLayer3-D max pooling layer
maxUnpooling2dLayer최댓값 언풀링 계층

결합 계층

additionLayer덧셈 계층
multiplicationLayer곱셈 계층
concatenationLayer결합 계층
depthConcatenationLayer심도 결합 계층

도움말 항목