조정
trainingOptions
함수를 사용하여 옵션을 설정하는 방법은 파라미터를 설정하고 컨벌루션 신경망 훈련시키기 항목을 참조하십시오. 유용한 시작 옵션을 식별한 후에는 하이퍼파라미터의 스윕을 자동화하거나 실험 관리자를 사용하여 베이즈 최적화를 시도할 수 있습니다.
적대적 표본을 생성하여 신경망의 견고성을 조사합니다. 그런 다음 FGSM(빠른 기울기 부호 방법) 적대적 훈련을 사용하여 적대적 섭동에 견고한 신경망을 훈련시킬 수 있습니다.
앱
심층 신경망 디자이너 | 딥러닝 신경망의 설계, 시각화 및 훈련 |
객체
trainingProgressMonitor | Monitor and plot training progress for deep learning custom training loops |
함수
trainingOptions | 딥러닝 신경망 훈련 옵션 |
trainNetwork | 딥러닝 신경망 훈련 |
도움말 항목
- 파라미터를 설정하고 컨벌루션 신경망 훈련시키기
컨벌루션 신경망의 훈련 파라미터를 설정하는 방법을 알아봅니다.
- 베이즈 최적화를 사용한 딥러닝
이 예제에서는 딥러닝에 베이즈 최적화를 적용하여 컨벌루션 신경망을 위한 최적의 신경망 하이퍼파라미터와 훈련 옵션을 찾는 방법을 보여줍니다.
- Detect Issues During Deep Neural Network Training
This example shows how to automatically detect issues while training a deep neural network.
- Train Deep Learning Networks in Parallel
This example shows how to run multiple deep learning experiments on your local machine.
- Train Network Using Custom Training Loop
This example shows how to train a network that classifies handwritten digits with a custom learning rate schedule.
- Compare Activation Layers
This example shows how to compare the accuracy of training networks with ReLU, leaky ReLU, ELU, and swish activation layers.
- Generate Experiment Using Deep Network Designer
Use Experiment Manager to tune the hyperparameters of a network trained in Deep Network Designer.
- 딥러닝 팁과 요령
딥러닝 신경망의 정확도를 높이는 방법을 알아봅니다.
- Specify Custom Weight Initialization Function
This example shows how to create a custom He weight initialization function for convolution layers followed by leaky ReLU layers.
- Compare Layer Weight Initializers
This example shows how to train deep learning networks with different weight initializers.
- 딥러닝 신경망 훈련 중의 출력값 사용자 지정하기
이 예제에서는 딥러닝 신경망 훈련 중에 각 반복에서 실행되는 출력 함수를 정의하는 방법을 보여줍니다.