GPU 컴퓨팅

 

NVIDIA CUDA 지원 GPU에 대한
MATLAB GPU 컴퓨팅 지원

NVIDIA CUDA 지원 GPU에 대한 MATLAB 컴퓨팅 수행하기

 

MATLAB에서는 NVIDIA® GPU를 사용하여 CUDA® 프로그래머가 아니더라도 AI, 딥러닝 및 기타 계산 집약적인 분석을 가속화할 수 있습니다. MATLAB과 Parallel Computing Toolbox를 사용하여 다음을 수행할 수 있습니다.

  • MATLAB에서 1000개가 넘는 내장 함수와 함께 직접 NVIDIA GPU를 사용할 수 있습니다.
  • MATLAB worker와 MATLAB Parallel Server를 사용하여 데스크탑, 연산용 클러스터 및 클라우드에서 다중 GPU에 액세스할 수 있습니다.
  • GPU Coder를 사용하여 MATLAB에서 CUDA 코드를 직접 생성한 다음 데이터 센터, 클라우드 및 임베디드 장치를 배포할 수 있습니다.
  • GPU Coder를 사용하여 MATLAB에서 NVIDIA TensorRT™ 코드를 생성함으로써 저지연 및 수율이 높은 추론을 할 수 있습니다.
  • MATLAB AI 응용 프로그램을 NVIDIA 지원 데이터 센터에 배포하여 MATLAB Production Server를 사용하는 엔터프라이즈 시스템과 통합할 수 있습니다.

“우리의 레거시 코드는 단일 풍동 테스트를 분석하는 데 최대 40분이 걸렸습니다. MATLAB과 GPU를 사용하여 계산 시간이 1분 미만으로 단축되었습니다. MATLAB 알고리즘을 GPU에서 작동시키는 데 30 분이 걸렸습니다. 로우 레벨의 CUDA 프로그래밍도 필요하지 않았습니다.”

Christopher Bahr, NASA

MATLAB에서 딥러닝 모델을 개발, 확장 및 배포하기

MATLAB에서 단일 사용자는 Deep Learning Toolbox를 사용하여 딥러닝 모델을 개발하고 학습하는 엔드 투 엔드 워크플로를 구현할 수 있습니다. 그런 다음 Parallel Computing Toolbox와 MATLAB Distributed Computing Server를 사용하여 클라우드와 클러스터 리소스를 사용하도록 학습을 확장하고 GPU Coder를 사용하는 데이터 센터 또는 임베디드 장치에 배포할 수 있습니다.

GPU로 딥러닝 및 기타 계산 집약적인 분석 개발하기

MATLAB은 AI와 딥러닝 개발을 위한 엔드 투 엔드 워크플로 플랫폼입니다. MATLAB은 학습 데이터 세트 가져오기, 시각화 및 디버깅, CNN 학습 확장 및 배포를 위한 툴과 앱을 제공합니다.

한 줄의 코드로 추가 연산을 위한 데스크탑, 클라우드 및 클러스터의 GPU 리소스를 사용하도록 확장합니다.


세션제목

gpuBench를 사용하여 자체 CPU 및 GPU 하드웨어를 테스트하십시오.

최소한의 코드 변경으로 MATLAB에서 GPU 사용하기

1000개가 넘는 CUDA 지원 MATLAB 함수를 사용하여 NVIDIA GPU에서 MATLAB 코드를 실행합니다. 딥러닝, 머신러닝, 컴퓨터 비전 및 신호 처리와 같은 응용 프로그램용 툴박스에서 GPU 지원 함수를 사용합니다. Parallel Computing Toolbox는 로우 레벨의 GPU 컴퓨팅 라이브러리를 학습하지 않고도 MATLAB에서 직접 CUDA 지원 NVIDIA GPU에 대한 계산을 수행하도록 해주는 특수한 배열 유형의 gpuArray를 제공합니다.

엔지니어는 추가 코드를 작성할 필요 없이 GPU 리소스를 사용할 수 있으므로 성능 튜닝보다는 응용 프로그램 개발에 집중할 수 있습니다.

parfor 및 spmd와 같은 병렬 언어 구문을 사용하면 다중 GPU에서 계산을 수행할 수 있습니다. 다중 GPU에서 모델을 학습하는 것은 학습 옵션을 변경하는 간단한 문제입니다.

또한 MATLAB에서는 추가 C 프로그래밍을 수행하지 않고도 기존의 CUDA 커널을 MATLAB 응용 프로그램에 통합할 수 있습니다.


TensorRT를 사용한 추론을 위해 MATLAB에서 생성된 CUDA 코드 배포하기

딥러닝, 임베디드 비전 및 자율 시스템용 MATLAB 코드에서 최적화된 CUDA 코드를 생성하기 위해 GPU Coder를 사용합니다. 생성된 코드는 TensorRT, cuDNN 및 cuBLAS를 포함한 최적화 NVIDIA CUDA 라이브러리를 자동으로 호출하여 NVIDIA GPU에서 실행됩니다. 생성된 코드를 소스 코드, 정적 라이브러리 또는 동적 라이브러리로 프로젝트에 통합하고 NVIDIA Volta®, NVIDIA Tesla®, NVIDIA Jetson® 및 NVIDIA DRIVE®와 같은 GPU에서 실행되도록 배포합니다.