이 페이지의 최신 내용은 아직 번역되지 않았습니다. 최신 내용은 영문으로 볼 수 있습니다.

딥러닝 가져오기, 내보내기 및 사용자 지정

딥러닝 신경망을 가져오거나 내보내거나 사용자 지정하고 계층, 훈련 루프, 손실 함수를 사용자 지정하기

TensorFlow™-Keras, Caffe 및 ONNX™(Open Neural Network Exchange) 모델 형식에서 네트워크와 네트워크 아키텍처를 가져옵니다. 훈련된 Deep Learning Toolbox™ 네트워크를 ONNX 모델 형식으로 내보낼 수도 있습니다.

문제에 대해 자신만의 고유한 사용자 지정 딥러닝 계층을 정의할 수 있습니다. 사용자 지정 출력 계층을 사용하여 사용자 지정 손실 함수를 지정하고 학습 가능한 파라미터를 포함하거나 포함하지 않는 사용자 지정 계층을 정의할 수 있습니다. 예를 들어, 클래스가 불균형하게 분포된 분류 문제에 대해 가중 교차 엔트로피 손실과 함께 사용자 지정 가중 분류 계층을 사용할 수 있습니다. 사용자 지정 계층을 정의한 후에는 이 계층이 유효하고, GPU와 호환되며, 올바르게 정의된 기울기를 출력하는지 확인할 수 있습니다.

trainingOptions 함수가 작업에 필요한 훈련 옵션을 제공하지 않거나 사용자 지정한 출력 계층이 필요한 손실 함수를 지원하지 않을 경우에는 사용자 지정 훈련 루프를 정의할 수 있습니다. 계층 그래프를 사용하여 만들 수 없는 네트워크의 경우 사용자 지정 네트워크를 함수로 정의할 수 있습니다. 자세한 내용은 Define Custom Training Loops, Loss Functions, and Networks 항목을 참조하십시오.

함수

모두 확장

importKerasNetwork사전 훈련된 Keras 네트워크와 가중치 가져오기
importKerasLayersImport layers from Keras network
importCaffeNetworkCaffe에서 사전 훈련된 컨벌루션 신경망 모델 가져오기
importCaffeLayersCaffe에서 컨벌루션 신경망 계층 가져오기
importONNXNetworkImport pretrained ONNX network
importONNXLayersImport layers from ONNX network
exportONNXNetwork네트워크를 ONNX 모델 형식으로 내보내기
findPlaceholderLayersFind placeholder layers in network architecture imported from Keras or ONNX
replaceLayerReplace layer in layer graph
assembleNetworkAssemble deep learning network from pretrained layers
PlaceholderLayerLayer replacing an unsupported Keras layer, ONNX layer, or unsupported functionality from functionToLayerGraph
checkLayerCheck validity of custom layer
setLearnRateFactor계층의 학습 가능한 파라미터에 대한 학습률 인자 설정
setL2Factor계층의 학습 가능한 파라미터에 대한 L2 정규화 인자 설정
getLearnRateFactor계층의 학습 가능한 파라미터에 대한 학습률 인자 가져오기
getL2Factor계층의 학습 가능한 파라미터에 대한 L2 정규화 인자 가져오기
dlnetworkDeep learning network for custom training loops
forwardCompute deep learning network output for training
predictCompute deep learning network output for inference
adamupdateUpdate parameters using adaptive moment estimation (Adam)
rmspropupdate Update parameters using root mean squared propagation (RMSProp)
sgdmupdate Update parameters using stochastic gradient descent with momentum (SGDM)
dlupdate Update parameters using custom function
dlarrayDeep learning array for custom training loops
dlgradientCompute gradients for custom training loops using automatic differentiation
dlfevalEvaluate deep learning model for custom training loops
dimsDimension labels of dlarray
finddimFind dimensions with specified label
stripdimsRemove dlarray labels
extractdataExtract data from dlarray
functionToLayerGraphConvert deep learning model function to a layer graph
dlconvDeep learning convolution
dltranspconvDeep learning transposed convolution
lstmLong short-term memory
fullyconnectSum all weighted input data and apply a bias
reluApply rectified linear unit activation
leakyreluApply leaky rectified linear unit activation
batchnormNormalize each channel of input data
avgpoolPool data to average values over spatial dimensions
maxpoolPool data to maximum value
maxunpoolUnpool the output of a maximum pooling operation
softmaxApply softmax activation to channel dimension
crossentropyCross-entropy loss for classification tasks
sigmoidApply sigmoid activation
mseHalf mean squared error

도움말 항목

사용자 지정 계층

사용자 지정 딥러닝 계층 정의하기

사용자 지정 딥러닝 계층을 정의하는 방법을 알아봅니다.

Check Custom Layer Validity

Learn how to check the validity of custom deep learning layers.

학습 가능한 파라미터를 갖는 사용자 지정 딥러닝 계층 정의하기

이 예제에서는 PReLU 계층을 정의하고 이를 컨벌루션 신경망에서 사용하는 방법을 보여줍니다.

Define Custom Deep Learning Layer with Multiple Inputs

This example shows how to define a custom weighted addition layer and use it in a convolutional neural network.

Define Custom Classification Output Layer

This example shows how to define a custom classification output layer with sum of squares error (SSE) loss and use it in a convolutional neural network.

Define Custom Weighted Classification Layer

This example shows how to define and create a custom weighted classification output layer with weighted cross entropy loss.

사용자 지정 회귀 출력 계층 정의하기

이 예제에서는 절대 오차 평균(MAE) 손실이 있는 사용자 지정 회귀 출력 계층을 정의하고 이를 컨벌루션 신경망에서 사용하는 방법을 보여줍니다.

네트워크 훈련 및 조합

Train Generative Adversarial Network (GAN)

This example shows how to train a generative adversarial network (GAN) to generate images.

Train a Siamese Network for Dimensionality Reduction

This example shows how to train a Siamese network to compare handwritten digits using dimensionality reduction.

Train a Siamese Network to Compare Images

This example shows how to train a Siamese network to identify similar images of handwritten characters.

Define Custom Training Loops, Loss Functions, and Networks

Learn how to define and customize deep learning training loops, loss functions, and networks using automatic differentiation.

Specify Training Options in Custom Training Loop

Learn how to specify common training options in a custom training loop.

Train Network Using Custom Training Loop

This example shows how to train a network that classifies handwritten digits with a custom learning rate schedule.

Make Predictions Using dlnetwork Object

This example shows how to make predictions using a dlnetwork object by splitting data into mini-batches.

Train Network Using Model Function

This example shows how to create and train a deep learning network by using functions rather than a layer graph or a dlnetwork.

Make Predictions Using Model Function

This example shows how to make predictions using a model function by splitting data into mini-batches.

Specify Custom Weight Initialization Function

This example shows how to create a custom He weight initialization function for convolution layers followed by leaky ReLU layers.

사전 훈련된 Keras 계층에서 네트워크 조합하기

이 예제에서는 사전 훈련된 Keras 네트워크에서 계층을 가져오고 지원되지 않는 계층을 사용자 지정 계층으로 바꾼 다음 이러한 계층을 예측을 실행할 준비가 된 네트워크로 조합하는 방법을 보여줍니다.

MIMO(다중 입력 다중 출력) 네트워크

Multiple-Input and Multiple-Output Networks

Learn how to define and train deep learning networks with multiple inputs or multiple outputs.

Train Network with Multiple Outputs

This example shows how to train a deep learning network with multiple outputs that predict both labels and angles of rotations of handwritten digits.

Assemble Multiple-Output Network for Prediction

Instead of using the model function for prediction, you can assemble the network into a DAGNetwork ready for prediction using the functionToLayerGraph and assembleNetwork functions.

자동 미분

Automatic Differentiation Background

Learn how automatic differentiation works.

Use Automatic Differentiation In Deep Learning Toolbox

How to use automatic differentiation in deep learning.

List of Functions with dlarray Support

View the list of functions that support dlarray objects.

Grad-CAM Reveals the Why Behind Deep Learning Decisions

This example shows how to use the gradient-weighted class activation mapping (Grad-CAM) technique to understand why a deep learning network makes its classification decisions.

추천 예제