faster r-cnn についての質問

조회 수: 1 (최근 30일)
HY
HY 2020년 9월 25일
댓글: HY 2020년 9월 26일
Faster R-CNNにていて教えていただきたいことがあります。今、ディープラーニングで研究を行うにあたり先行研究(同研究室)で行われていたFaster R-CNNのネットワークを比較実験するために、学習済みのネットワークを調べています。このネットワークは2017aでのバージョンで作成されています。
ここで何点か疑問に思ったので質問いたします。
まず、InputLayerを調べてみると[32 32 3]と比較的小さいサイズになっているのですが、アンカーボックスのサイズはそれより大きい224*212などのサイズになっています。学習データはsmallestImageDemensionで700*700の同一サイズに変更されていますが、自分の理解ではそれをさらに32*32にリサイズされ入力層に流れると思っています。そこで下記のURLで同じような質問をしてあるのを見つけたのですが、どうやら仕様が2017とでは違うようで、2017では検出するオブジェクトの検出するサイズに合わせて入力サイズを決めているそうなのですが、答えにある内容があまり理解できませんでした。
この質問者と同じ疑問ですが[32 32]の画像ではあまりにも小さすぎると思い、どうやって学習していたのか疑問です。2020verで例にのっとって入力サイズを224*224で行ってもうまく学習できません。
もし2017verでFRCNNを学習していた方や、この変更点について少しでも知っている方がいましたら、教えていただけると幸いです。
よろしくお願いいたします。
  댓글 수: 8
Kenta
Kenta 2020년 9월 26일
なるほど、ありがとうございます。
それではなぜ、先行研究のほうではうまく行ったんですかね?もし、以前どこかの質問やコメントですでに言及があれば申し訳ありません。
バックボーンネットワークを変えたり、アルゴリズムをR-CNN系からYOLOなどに変更してうまくいくとよいのですが、、、
HY
HY 2020년 9월 26일
一番上の質問に載せたURLでも質問しているように、2017aでの学習方法が今と違うみたいでこの違いがわかれば、なぜ先行研究が上手くいったのかわかりそうです。。。
同時進行でYOLOなども行っている状態です。
色々と検討していただき誠にありがとうございます。

댓글을 달려면 로그인하십시오.

채택된 답변

Kenta
Kenta 2020년 9월 26일
コメントのほう、ありがとうございます。2017のバージョンは使ったことがなくて、今回の状況だと私にはわかりそうにありません。
ひとまず画像サイズを同一にするようtransformしてみて、かつ特徴抽出のバックボーンのネットワークを変えたりしてみるとよいかもしれません。また、transform後のバウンディングボックスと入力画像も可視化してみて、しっかりとうまくラベリングや前処理ができているかも見てみると良いと思います。色々と原因になりそうなことがあって、ここで同定できず残念ですが、こちらや以前のコメントなど参考になれば嬉しいです。
  댓글 수: 1
HY
HY 2020년 9월 26일
ありがとうございました。 色々と確認してみます。

댓글을 달려면 로그인하십시오.

추가 답변 (0개)

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!