주요 콘텐츠

양자화

신경망 파라미터를 낮은 정밀도의 데이터형으로 양자화, 고정소수점 코드 생성을 위해 딥러닝 신경망 준비

계층의 가중치, 편향 및 활성화를 정수 데이터형으로 스케일링한 낮은 정밀도로 양자화합니다. 그런 다음 양자화된 이러한 신경망에서 GPU, FPGA 또는 CPU 배포용 C/C++, CUDA® 또는 HDL 코드를 생성할 수 있습니다.

Deep Learning Toolbox™ Model Compression Library에서 사용 가능한 압축 기법에 대한 자세한 개요는 Reduce Memory Footprint of Deep Neural Networks 항목을 참조하십시오.

Simplified illustration of quantization. On the left is a sketch of a neural network consisting of three layers with two, three, and one neuron, respectively. Each neuron in every layer is connected to all neurons in neighboring layers. An arrow points to a second sketch on the right, which shows the same network with the weights indicated by dotted lines instead of full lines, which indicates that the weights are stored with smaller precision.

함수

dlquantizerQuantize a deep neural network to 8-bit scaled integer data types
dlquantizationOptionsOptions for quantizing a trained deep neural network
prepareNetworkPrepare deep neural network for quantization (R2024b 이후)
calibrateSimulate and collect ranges of a deep neural network
quantizeQuantize deep neural network (R2022a 이후)
validateQuantize and validate a deep neural network
quantizationDetails신경망의 양자화 세부 정보 표시 (R2022a 이후)
estimateNetworkMetricsEstimate network metrics for specific layers of a neural network (R2022a 이후)
equalizeLayersEqualize layer parameters of deep neural network (R2022b 이후)
exportNetworkToSimulinkGenerate Simulink model that contains deep learning layer blocks and subsystems that correspond to deep learning layer objects (R2024b 이후)

심층 신경망 양자화기Quantize deep neural network to 8-bit scaled integer data types

도움말 항목

양자화 이해하기

배포 전 워크플로

배포

고려 사항

추천 예제