이 페이지의 최신 내용은 아직 번역되지 않았습니다. 최신 내용은 영문으로 볼 수 있습니다.
TensorFlow™-Keras, Caffe 및 ONNX™(Open Neural Network Exchange) 모델 형식에서 신경망과 신경망 아키텍처를 가져옵니다. 훈련된 Deep Learning Toolbox™ 신경망을 ONNX 모델 형식으로 내보낼 수도 있습니다.
문제에 대해 자신만의 고유한 사용자 지정 딥러닝 계층을 정의할 수 있습니다. 사용자 지정 출력 계층을 사용하여 사용자 지정 손실 함수를 지정하고 학습 가능한 파라미터를 포함하거나 포함하지 않는 사용자 지정 계층을 정의할 수 있습니다. 예를 들어, 클래스가 불균형하게 분포된 분류 문제에 대해 가중 교차 엔트로피 손실과 함께 사용자 지정 가중 분류 계층을 사용할 수 있습니다. 사용자 지정 계층을 정의한 후에는 이 계층이 유효하고, GPU와 호환되며, 올바르게 정의된 기울기를 출력하는지 확인할 수 있습니다.
trainingOptions
함수가 작업에 필요한 훈련 옵션을 제공하지 않거나 사용자 지정한 출력 계층이 필요한 손실 함수를 지원하지 않을 경우에는 사용자 지정 훈련 루프를 정의할 수 있습니다. 계층 그래프를 사용하여 만들 수 없는 신경망의 경우 사용자 지정 신경망을 함수로 정의할 수 있습니다. 자세한 내용은 Define Custom Training Loops, Loss Functions, and Networks 항목을 참조하십시오.
사용자 지정 딥러닝 계층을 정의하는 방법을 알아봅니다.
Learn how to check the validity of custom deep learning layers.
학습 가능한 파라미터를 갖는 사용자 지정 딥러닝 계층 정의하기
이 예제에서는 PReLU 계층을 정의하고 이를 컨벌루션 신경망에서 사용하는 방법을 보여줍니다.
Define Custom Deep Learning Layer with Multiple Inputs
This example shows how to define a custom weighted addition layer and use it in a convolutional neural network.
Define Custom Classification Output Layer
This example shows how to define a custom classification output layer with sum of squares error (SSE) loss and use it in a convolutional neural network.
Define Custom Weighted Classification Layer
This example shows how to define and create a custom weighted classification output layer with weighted cross entropy loss.
이 예제에서는 평균 절대 오차(MAE) 손실이 있는 사용자 지정 회귀 출력 계층을 정의하고 이를 컨벌루션 신경망에서 사용하는 방법을 보여줍니다.
Specify Custom Layer Backward Function
This example shows how to define a PReLU layer and specify a custom backward function.
Specify Custom Output Layer Backward Loss Function
This example shows how to define a weighted classification layer and specify a custom backward loss function.
Train Generative Adversarial Network (GAN)
This example shows how to train a generative adversarial network (GAN) to generate images.
Train Conditional Generative Adversarial Network (CGAN)
This example shows how to train a conditional generative adversarial network (CGAN) to generate images.
Train a Siamese Network for Dimensionality Reduction
This example shows how to train a Siamese network to compare handwritten digits using dimensionality reduction.
Train a Siamese Network to Compare Images
This example shows how to train a Siamese network to identify similar images of handwritten characters.
Define Custom Training Loops, Loss Functions, and Networks
Learn how to define and customize deep learning training loops, loss functions, and networks using automatic differentiation.
Specify Training Options in Custom Training Loop
Learn how to specify common training options in a custom training loop.
Train Network Using Custom Training Loop
This example shows how to train a network that classifies handwritten digits with a custom learning rate schedule.
Update Batch Normalization Statistics in Custom Training Loop
This example shows how to update the network state in a custom training loop.
Make Predictions Using dlnetwork Object
This example shows how to make predictions using a dlnetwork
object by splitting data into mini-batches.
Train Network Using Model Function
This example shows how to create and train a deep learning network by using functions rather than a layer graph or a dlnetwork
.
Update Batch Normalization Statistics Using Model Function
This example shows how to update the network state in a network defined as a function.
Make Predictions Using Model Function
This example shows how to make predictions using a model function by splitting data into mini-batches.
Compare Layer Weight Initializers
This example shows how to train deep learning networks with different weight initializers.
Specify Custom Weight Initialization Function
This example shows how to create a custom He weight initialization function for convolution layers followed by leaky ReLU layers.
이 예제에서는 사전 훈련된 Keras 신경망에서 계층을 가져오고 지원되지 않는 계층을 사용자 지정 계층으로 바꾼 다음 이러한 계층을 예측을 실행할 준비가 된 신경망으로 조합하는 방법을 보여줍니다.
Multiple-Input and Multiple-Output Networks
Learn how to define and train deep learning networks with multiple inputs or multiple outputs.
Train Network with Multiple Outputs
This example shows how to train a deep learning network with multiple outputs that predict both labels and angles of rotations of handwritten digits.
Assemble Multiple-Output Network for Prediction
This example shows how to assemble a multiple output network for prediction.
Automatic Differentiation Background
Learn how automatic differentiation works.
Use Automatic Differentiation In Deep Learning Toolbox
How to use automatic differentiation in deep learning.
List of Functions with dlarray Support
View the list of functions that support dlarray
objects.
Grad-CAM Reveals the Why Behind Deep Learning Decisions
This example shows how to use the gradient-weighted class activation mapping (Grad-CAM) technique to understand why a deep learning network makes its classification decisions.