비디오 길이: 29:52

신호 및 시계열 데이터를 위한 딥러닝

인공 지능 (AI) 기술을 사용하여 신호 및 시계열 데이터에 대한 예측 모델을 개발하는 것은 음성 인식, 레이더 타겟 분류 및 생체 신호 인식을 비롯한 다양한 응용프로그램 및 산업 전반에 걸쳐 활발한 연구가 이루어지고 있습니다.

본 세션에서는, MATLAB®을 활용하여 손쉽게 신호 및 시계열 데이터에 딥러닝을 적용하는 방법을 소개합니다. 특히, wavelet scattering을 활용한 자동 특징 추출, 앱을 활용한 ground-truth labeling 기법 등 첨단 신호 및 오디오 처리 기술 및 데모를 확인하실 수 있습니다.

추가적으로, MATLAB을 활용한 AI 개발 방법을 소개하며 아래의 내용이 포함됩니다.

  • 신호예측 모델의 정확도 향상을 위한 신호 전처리 기술 및 앱
  • 고급 신호처리 특징 분석을 위한 feature engineering 기법
  • ONNX™ (Open Neural Network Exchange)를 활용한 다른 딥러닝 framework와의 협업 방법
  • GPU, multi-GPU 및 클라우드를 활용한 연산 확장

녹화된 날짜: 2019년 4월 23일