딥러닝

MATLAB 및 Simulink를 사용한 에지 AI

머신러닝 및 딥러닝 응용 사례를 임베디드 시스템에 배포

머신러닝 및 딥러닝 모델을 시뮬레이션 및 테스트하고 에지 기기와 임베디드 시스템에 배포할 수 있습니다. 전처리 및 후처리 알고리즘을 포함하는 전체 AI 응용 사례의 코드를 생성할 수 있습니다.

MATLAB® 및 Simulink®로 다음과 같은 작업을 수행할 수 있습니다.

  • CPU 및 GPU에 배포할 최적화된 C/C++ 및 CUDA 코드 생성
  • FPGA 및 SoC에 배포할 합성 가능한 Verilog 및 VHDL 코드 생성
  • oneDNN, Arm Compute Library, TensorRT 등의 하드웨어 최적화된 딥러닝 라이브러리로 추론 가속화
  • 사전 훈련된 TFLite(TensorFlow Lite) 모델을 하드웨어에 배포된 응용 사례에 통합
  • 하이퍼파라미터 조정, 양자화, 신경망 가지치기 툴을 사용하여 리소스가 제약된 하드웨어에서의 추론을 위해 AI 모델 압축

“데이터 주석부터 딥러닝 모델의 선택, 훈련, 테스트, 미세 조정에 이르기까지, MATLAB에는 우리에게 필요한 모든 툴이 있었습니다. 또한 GPU Coder 덕분에 GPU 관련 경험이 부족했어도 NVIDIA GPU로의 배포를 신속히 진행할 수 있었습니다.”

Valerio Imbriolo, Drass Group
임베디드 하드웨어 이미지에 배포 중인 C/C++ 코드의 스크린샷.

CPU 및 마이크로컨트롤러

MATLAB Coder™ 및 Simulink Coder™를 사용하면 훈련된 머신러닝 및 딥러닝 모델로부터 이식성이 좋은 최적화된 C/C++ 코드를 생성할 수 있습니다. 생성된 코드에서 딥러닝 추론에 최적화된 oneDNN 및 Arm® Compute Library 같은 공급업체 특정 라이브러리를 호출할 수도 있습니다.

NVIDIA 데스크탑 및 임베디드 GPU 이미지에 배포 중인 Simulink C/C++ 코드의 스크린샷.

GPU

GPU Coder™를 사용하면 훈련된 딥러닝 신경망의 최적화된 CUDA® 코드를 생성할 수 있습니다. 신경망에 전처리와 후처리를 포함하여 전체 알고리즘을 데스크탑, 서버, 임베디드 GPU에 배포할 수 있습니다. TensorRT™와 cuDNN 같은 NVIDIA® CUDA 라이브러리를 사용하여 성능을 극대화할 수 있습니다.

MATLAB에서 직접 FPGA 기반 딥러닝 추론을 프로토타입 하드웨어에서 실행한 후, FPGA 또는 ASIC에 배포할 딥러닝 HDL IP 코어를 생성할 수 있습니다.

FPGA 및 SoC

Deep Learning HDL Toolbox™를 사용하여 FPGA 및 SoC에서 딥러닝 신경망을 프로토타이핑하고 구현할 수 있습니다. 널리 사용되는 FPGA 개발 키트에 대한 미리 구성된 비트스트림으로 데이터 이동 IP 코어와 딥러닝 프로세서를 프로그래밍할 수 있습니다. HDL Coder™를 사용하여 사용자 지정 딥러닝 프로세서 IP 코어와 비트스트림을 생성할 수 있습니다.

임베디드 배포용 AI 모델을 최적화하기 위한 계층 그래프, 보정 통계, 검증 결과 화면의 스크린샷.

AI 모델 압축

하이퍼파라미터 조정과 가중치, 편향, 활성화의 양자화를 통해 머신러닝과 딥러닝 모델의 메모리 요구사항을 줄일 수 있습니다. 불필요한 계층 연결을 가지치기하여 심층 신경망의 크기를 최소화할 수 있습니다.