Main Content

이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.

양자화 및 가지치기

양자화 또는 가지치기를 수행하여 심층 신경망 압축

Deep Learning Toolbox™와 함께 Deep Learning Toolbox Model Quantization Library 지원 패키지를 사용하여 심층 신경망의 메모리 사용량과 계산 요구 사항을 줄이려면 다음과 같이 하십시오.

  • 계층의 가중치, 편향 및 활성화를 정수 데이터형으로 스케일링한 낮은 정밀도로 양자화합니다. 그런 다음 양자화된 신경망에서 C/C++, CUDA® 또는 HDL 코드를 생성할 수 있습니다.

  • 1차 테일러 근사를 사용하여 컨벌루션 계층에서 필터를 가지치기합니다. 그런 다음 가지치기된 신경망에서 C/C++ 또는 CUDA 코드를 생성할 수 있습니다.

함수

모두 확장

dlquantizerQuantize a deep neural network to 8-bit scaled integer data types
dlquantizationOptionsOptions for quantizing a trained deep neural network
calibrateSimulate and collect ranges of a deep neural network
validateQuantize and validate a deep neural network
quantizeQuantize deep neural network
estimateNetworkMetricsEstimate network metrics for specific layers of a neural network
quantizationDetailsDisplay quantization details for a neural network
taylorPrunableNetworkNetwork that can be pruned by using first-order Taylor approximation
forwardCompute deep learning network output for training
predictCompute deep learning network output for inference
updatePrunablesRemove filters from prunable layers based on importance scores
updateScoreCompute and accumulate Taylor-based importance scores for pruning
dlnetworkDeep learning network for custom training loops

심층 신경망 양자화기Quantize a deep neural network to 8-bit scaled integer data types

도움말 항목

딥러닝 양자화

GPU 타깃을 위한 양자화

FPGA 타깃을 위한 양자화

CPU 타깃을 위한 양자화

가지치기