29:52
비디오 길이: 29:52
신호 및 시계열 데이터를 위한 딥러닝
인공 지능 (AI) 기술을 사용하여 신호 및 시계열 데이터에 대한 예측 모델을 개발하는 것은 음성 인식, 레이더 타겟 분류 및 생체 신호 인식을 비롯한 다양한 응용프로그램 및 산업 전반에 걸쳐 활발한 연구가 이루어지고 있습니다.
본 세션에서는, MATLAB®을 활용하여 손쉽게 신호 및 시계열 데이터에 딥러닝을 적용하는 방법을 소개합니다. 특히, wavelet scattering을 활용한 자동 특징 추출, 앱을 활용한 ground-truth labeling 기법 등 첨단 신호 및 오디오 처리 기술 및 데모를 확인하실 수 있습니다.
추가적으로, MATLAB을 활용한 AI 개발 방법을 소개하며 아래의 내용이 포함됩니다.
- 신호예측 모델의 정확도 향상을 위한 신호 전처리 기술 및 앱
- 고급 신호처리 특징 분석을 위한 feature engineering 기법
- ONNX™ (Open Neural Network Exchange)를 활용한 다른 딥러닝 framework와의 협업 방법
- GPU, multi-GPU 및 클라우드를 활용한 연산 확장
녹화된 날짜: 2019년 4월 23일
추천 제품
Deep Learning Toolbox
웹사이트 선택
번역된 콘텐츠를 보고 지역별 이벤트와 혜택을 살펴보려면 웹사이트를 선택하십시오. 현재 계신 지역에 따라 다음 웹사이트를 권장합니다:
또한 다음 목록에서 웹사이트를 선택하실 수도 있습니다.
사이트 성능 최적화 방법
최고의 사이트 성능을 위해 중국 사이트(중국어 또는 영어)를 선택하십시오. 현재 계신 지역에서는 다른 국가의 MathWorks 사이트 방문이 최적화되지 않았습니다.
미주
- América Latina (Español)
- Canada (English)
- United States (English)
유럽
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)
아시아 태평양
- Australia (English)
- India (English)
- New Zealand (English)
- 中国
- 日本Japanese (日本語)
- 한국Korean (한국어)