NVIDIA CUDA 지원 GPU에 대한
MATLAB GPU 컴퓨팅 지원
NVIDIA CUDA 지원 GPU에 대한 MATLAB 컴퓨팅 수행하기
NVIDIA CUDA 지원 GPU에 대한 MATLAB 컴퓨팅 수행하기
MATLAB에서는 NVIDIA® GPU를 사용하여 CUDA® 프로그래머가 아니더라도 AI, 딥러닝 및 기타 계산 집약적인 분석을 가속화할 수 있습니다. MATLAB과 Parallel Computing Toolbox를 사용하여 다음을 수행할 수 있습니다.
MATLAB에서 단일 사용자는 Deep Learning Toolbox를 사용하여 딥러닝 모델을 개발하고 학습하는 엔드 투 엔드 워크플로를 구현할 수 있습니다. 그런 다음 Parallel Computing Toolbox와 MATLAB Distributed Computing Server를 사용하여 클라우드와 클러스터 리소스를 사용하도록 학습을 확장하고 GPU Coder를 사용하는 데이터 센터 또는 임베디드 장치에 배포할 수 있습니다.
MATLAB은 AI와 딥러닝 개발을 위한 엔드 투 엔드 워크플로 플랫폼입니다. MATLAB은 학습 데이터 세트 가져오기, 시각화 및 디버깅, CNN 학습 확장 및 배포를 위한 툴과 앱을 제공합니다.
한 줄의 코드로 추가 연산을 위한 데스크탑, 클라우드 및 클러스터의 GPU 리소스를 사용하도록 확장합니다.
gpuBench를 사용하여 자체 CPU 및 GPU 하드웨어를 테스트하십시오.
1000개가 넘는 CUDA 지원 MATLAB 함수를 사용하여 NVIDIA GPU에서 MATLAB 코드를 실행합니다. 딥러닝, 머신러닝, 컴퓨터 비전 및 신호 처리와 같은 응용 프로그램용 툴박스에서 GPU 지원 함수를 사용합니다. Parallel Computing Toolbox는 로우 레벨의 GPU 컴퓨팅 라이브러리를 학습하지 않고도 MATLAB에서 직접 CUDA 지원 NVIDIA GPU에 대한 계산을 수행하도록 해주는 특수한 배열 유형의 gpuArray를 제공합니다.
엔지니어는 추가 코드를 작성할 필요 없이 GPU 리소스를 사용할 수 있으므로 성능 튜닝보다는 응용 프로그램 개발에 집중할 수 있습니다.
parfor 및 spmd와 같은 병렬 언어 구문을 사용하면 다중 GPU에서 계산을 수행할 수 있습니다. 다중 GPU에서 모델을 학습하는 것은 학습 옵션을 변경하는 간단한 문제입니다.
또한 MATLAB에서는 추가 C 프로그래밍을 수행하지 않고도 기존의 CUDA 커널을 MATLAB 응용 프로그램에 통합할 수 있습니다.
딥러닝, 임베디드 비전 및 자율 시스템용 MATLAB 코드에서 최적화된 CUDA 코드를 생성하기 위해 GPU Coder를 사용합니다. 생성된 코드는 TensorRT, cuDNN 및 cuBLAS를 포함한 최적화 NVIDIA CUDA 라이브러리를 자동으로 호출하여 NVIDIA GPU에서 실행됩니다. 생성된 코드를 소스 코드, 정적 라이브러리 또는 동적 라이브러리로 프로젝트에 통합하고 NVIDIA Volta®, NVIDIA Tesla®, NVIDIA Jetson® 및 NVIDIA DRIVE®와 같은 GPU에서 실행되도록 배포합니다.