주요 콘텐츠

가지치기

1차 테일러 근사를 사용하여 신경망 필터 가지치기, 학습 가능한 파라미터 개수 줄이기

1차 테일러 근사를 사용하여 컨벌루션 계층에서 필터를 가지치기합니다. 그런 다음 가지치기된 신경망에서 C/C++ 또는 CUDA® 코드를 생성할 수 있습니다.

Deep Learning Toolbox™ Model Compression Library에서 사용 가능한 압축 기법에 대한 자세한 개요는 Reduce Memory Footprint of Deep Neural Networks 항목을 참조하십시오.

Simplified illustration of pruning. On the left is a sketch of a neural network with three layers that consist of four, three, and four neurons, respectively. All neurons are connected to all other neurons. An arrow points to a second sketch on the right that shows the same network, but one neuron has been cut out from the middle layer, and two neurons have been cut out from the final layer.

함수

taylorPrunableNetworkNeural network suitable for compression using Taylor pruning (R2022a 이후)
forwardCompute deep learning network output for training
predict추론에 사용할 딥러닝 신경망 출력값 계산
updatePrunablesRemove filters from prunable layers based on importance scores (R2022a 이후)
updateScoreCompute and accumulate Taylor-based importance scores for pruning (R2022a 이후)

도움말 항목

추천 예제