주요 콘텐츠

사영

주성분 분석(PCA)을 사용하여 신경망 계층 사영, 학습 가능한 파라미터 개수 줄이기

훈련 데이터를 대표하는 데이터 세트를 사용하여 계층 활성화 부분에 주성분 분석(PCA)을 수행하여 계층을 사영하고, 계층의 학습 가능한 파라미터에 선형 사영을 적용합니다. 라이브러리가 없는 C/C++ 코드 생성을 사용하여 임베디드 하드웨어에 신경망을 배포하는 경우에는 사영된 심층 신경망을 순방향 통과시키는 것이 일반적으로 더 빠릅니다.

Deep Learning Toolbox™ Model Compression Library에서 사용 가능한 압축 기법에 대한 자세한 개요는 Reduce Memory Footprint of Deep Neural Networks 항목을 참조하십시오.

Simplified illustration of projection. On the left is a sketch of a neural network with two layers that consist of three and two neurons, respectively. Every neuron in the first layer is connected to every neuron in the second layer. An arrow points to a second sketch on the right, which shows a different model that consists of three layers, with three, one, and two neurons, respectively. The right network has fewer weights in total compared to the left.

함수

compressNetworkUsingProjectionCompress neural network using projection (R2022b 이후)
neuronPCAPrincipal component analysis of neuron activations (R2022b 이후)
unpackProjectedLayersUnpack projected layers of neural network (R2023b 이후)
ProjectedLayerCompressed neural network layer using projection (R2023b 이후)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (R2023b 이후)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (R2022b 이후)

도움말 항목

추천 예제