複数のGPUを用いたDeep Learning メモリ不足の回避方法
조회 수: 1 (최근 30일)
이전 댓글 표시
深層学習を使用した脳腫瘍の 3 次元セグメンテーション をmatlab2020bで動作確認しております。
GPUを2つ積んでいるのでtrainingOptionsの'ExecutionEnvironment'を'multi-gpu'変更しプログラムを動作させると、メモリ不足でエラーがでます。'MiniBatchSize'を8から2に変更すると動作しますが警告文でメモリ不足で動作が遅くなる可能性があるとでます。
'MiniBatchSize'の変更以外にこの問題を解消する方法はありますか?
環境
os:Windows10pro
メモリ:64GB
プロセッサ:Core i9
GPU:GeForce RTX 2070 SUPER
NVIDIAドライバー:バージョン11
댓글 수: 0
채택된 답변
Kenta
2020년 9월 25일
こんにちは、patchSize = [132 132 132];のところのパッチサイズを小さくすることがあげられます。また、Unetの層の深さを変えることでもメモリの消費を抑えられます。十分にシンプルな課題であれば層を浅くすると計算時間の短縮や過学習の抑制(場合による)も期待できます。
댓글 수: 0
추가 답변 (0개)
참고 항목
카테고리
Help Center 및 File Exchange에서 Deep Learning Toolbox에 대해 자세히 알아보기
Community Treasure Hunt
Find the treasures in MATLAB Central and discover how the community can help you!
Start Hunting!