임베디드 AI - MATLAB & Simulink

딥러닝

MATLAB 및 Simulink를 사용한 임베디드 AI

임베디드 시스템에 머신러닝 및 딥러닝 애플리케이션 배포

MATLAB 및 Simulink로 복잡한 임베디드 시스템의 성능과 기능을 개선하는 AI 알고리즘을 설계, 시뮬레이션, 테스트, 검증 및 배포할 수 있습니다.

임베디드 AI 워크플로의 그림.

MATLAB 및 Simulink를 사용한 임베디드 AI로의 배포

AI 모델을 준비하고 CPU, GPU, FPGA 등에 임베디드 AI 애플리케이션을 배포하기 위해 코드를 자동으로 생성하는 방법을 알아볼 수 있습니다. MATLAB 및 Simulink를 사용한 임베디드 AI에 대한 실용적 조언을 제공하는 튜토리얼, 예제 및 비디오를 살펴볼 수 있습니다.

임베디드 배포용 AI 모델을 최적화하기 위한 계층 그래프, 보정 통계, 검증 결과 화면의 스크린샷.

CPU 및 마이크로컨트롤러에 배포

MATLAB Coder 및 Simulink Coder를 사용하면 훈련된 머신러닝 및 딥러닝 모델로부터 이식성이 좋은 최적화된 C/C++ 코드를 생성할 수 있습니다.

NVIDIA 데스크탑 및 임베디드 GPU 이미지에 배포 중인 Simulink C/C++ 코드의 스크린샷.

GPU에 배포

GPU Coder를 사용하면 훈련된 딥러닝 신경망의 최적화된 CUDA® 코드를 생성하여 데스크탑, 서버 및 임베디드 GPU에 배포할 수 있습니다.

MATLAB에서 직접 FPGA 기반 딥러닝 추론을 프로토타입 하드웨어에서 실행한 후, FPGA 또는 ASIC에 배포할 딥러닝 HDL IP 코어를 생성할 수 있습니다.

FPGA 및 SoC에 배포

Deep Learning HDL Toolbox로 FPGA 및 SoC에서 딥러닝 신경망을 프로토타이핑하고 구현할 수 있습니다. HDL Coder로 사용자 지정 딥러닝 프로세서 IP 코어와 비트스트림을 생성할 수 있습니다.

임베디드 배포용 AI 모델을 최적화하기 위한 계층 그래프, 보정 통계, 검증 결과 화면의 스크린샷.

AI 모델 압축

양자화, 투영 또는 가지치기로 심층 신경망을 압축하여 메모리 사용량을 줄이고 추론 성능을 높일 수 있습니다.