誤差逆伝搬型ニューラ​ルネットワークの伝達​関数として ReLU (Rectified Linear Unit) は対応していますか?

조회 수: 3 (최근 30일)
MathWorks Support Team
MathWorks Support Team 2017년 3월 24일
답변: MathWorks Support Team 2017년 3월 24일
現在、誤差逆伝搬型型ニューラルネットの出力関数にシグモイド関数を使用していますが、これを「ReLU(Rectified Linear Unit)」に変更したいと考えておりますがToolboxとして対応していますか?

채택된 답변

MathWorks Support Team
MathWorks Support Team 2017년 3월 24일
ReLU(Rectified Linear Unit) 関数は、 poslin() としてご利用頂く事が可能です。 
>> doc poslin 
にて、伝達関数の形を確認することが可能です。 

추가 답변 (0개)

카테고리

Help CenterFile Exchange에서 Deep Learning Toolbox에 대해 자세히 알아보기

제품


릴리스

R2015b

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!