이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
딥러닝 조정
trainingOptions
함수를 사용하여 옵션을 설정하는 방법은 파라미터를 설정하고 컨벌루션 신경망 훈련시키기 항목을 참조하십시오. 유용한 시작 옵션을 식별한 후에는 하이퍼파라미터의 스윕을 자동화하거나 실험 관리자를 사용하여 베이즈 최적화를 시도할 수 있습니다.
적대적 표본을 생성하여 신경망의 견고성을 조사합니다. 그런 다음 FGSM(빠른 기울기 부호 방법) 적대적 훈련을 사용하여 적대적 섭동에 견고한 신경망을 훈련시킬 수 있습니다.
앱
심층 신경망 디자이너 | 딥러닝 신경망의 설계, 시각화 및 훈련 |
함수
trainingOptions | 딥러닝 신경망 훈련 옵션 |
trainNetwork | 딥러닝 신경망 훈련 |
도움말 항목
- 파라미터를 설정하고 컨벌루션 신경망 훈련시키기
컨벌루션 신경망의 훈련 파라미터를 설정하는 방법을 알아봅니다.
- 베이즈 최적화를 사용한 딥러닝
이 예제에서는 딥러닝에 베이즈 최적화를 적용하여 컨벌루션 신경망을 위한 최적의 신경망 하이퍼파라미터와 훈련 옵션을 찾는 방법을 보여줍니다.
- Train Deep Learning Networks in Parallel
This example shows how to run multiple deep learning experiments on your local machine.
- Train Network Using Custom Training Loop
This example shows how to train a network that classifies handwritten digits with a custom learning rate schedule.
- Compare Activation Layers
This example shows how to compare the accuracy of training networks with ReLU, leaky ReLU, ELU, and swish activation layers.
- Generate Experiment Using Deep Network Designer
Use Experiment Manager to tune the hyperparameters of a network trained in Deep Network Designer.
- 딥러닝 팁과 요령
딥러닝 신경망의 정확도를 높이는 방법을 알아봅니다.
- Train Robust Deep Learning Network with Jacobian Regularization
This example shows how to train a neural network that is robust to adversarial examples using a Jacobian regularization scheme [1].
- Specify Custom Weight Initialization Function
This example shows how to create a custom He weight initialization function for convolution layers followed by leaky ReLU layers.
- Compare Layer Weight Initializers
This example shows how to train deep learning networks with different weight initializers.