Main Content

양자화 및 가지치기

양자화 또는 가지치기를 수행하여 심층 신경망 압축

Deep Learning Toolbox™와 함께 Deep Learning Toolbox Model Quantization Library 지원 패키지를 사용하여 심층 신경망의 메모리 사용량과 계산 요구 사항을 줄이려면 다음과 같이 하십시오.

  • 계층의 가중치, 편향 및 활성화를 정수 데이터형으로 스케일링한 낮은 정밀도로 양자화합니다. 그런 다음 양자화된 신경망에서 C/C++, CUDA® 또는 HDL 코드를 생성할 수 있습니다.

    C/C++ 및 CUDA 코드 생성 시, 컨벌루션 계층의 가중치, 편향 및 활성화를 8비트로 스케일링된 정수 데이터형으로 양자화하여 컨벌루션 심층 신경망용 코드를 생성합니다. 양자화는 calibrate 함수에 의해 생성된 보정 결과 파일을 codegen (MATLAB Coder) 명령에 제공하여 수행됩니다.

    quantize 함수에 의해 생성된 양자화된 심층 신경망은 코드 생성에 지원되지 않습니다.

  • 1차 테일러 근사를 사용하여 컨벌루션 계층에서 필터를 가지치기합니다. 그런 다음 가지치기된 신경망에서 C/C++ 또는 CUDA 코드를 생성할 수 있습니다.

함수

모두 확장

dlquantizerQuantize a deep neural network to 8-bit scaled integer data types
dlquantizationOptionsOptions for quantizing a trained deep neural network
calibrateSimulate and collect ranges of a deep neural network
quantizeQuantize deep neural network
validateQuantize and validate a deep neural network
quantizationDetailsDisplay quantization details for a neural network
estimateNetworkMetricsEstimate network metrics for specific layers of a neural network
equalizeLayersEqualize layer parameters of deep neural network
taylorPrunableNetworkNetwork that can be pruned by using first-order Taylor approximation
forwardCompute deep learning network output for training
predictCompute deep learning network output for inference
updatePrunablesRemove filters from prunable layers based on importance scores
updateScoreCompute and accumulate Taylor-based importance scores for pruning
dlnetworkDeep learning network for custom training loops

심층 신경망 양자화기Quantize a deep neural network to 8-bit scaled integer data types

도움말 항목

딥러닝 양자화

GPU 타깃을 위한 양자화

FPGA 타깃을 위한 양자화

CPU 타깃을 위한 양자화

가지치기