誤差逆伝搬型ニューラルネットワークの伝達関数として ReLU (Rectified Linear Unit) は対応していますか?
조회 수: 3 (최근 30일)
이전 댓글 표시
MathWorks Support Team
2017년 3월 24일
답변: MathWorks Support Team
2017년 3월 24일
現在、誤差逆伝搬型型ニューラルネットの出力関数にシグモイド関数を使用していますが、これを「ReLU(Rectified Linear Unit)」に変更したいと考えておりますがToolboxとして対応していますか?
채택된 답변
MathWorks Support Team
2017년 3월 24일
ReLU(Rectified Linear Unit) 関数は、 poslin() としてご利用頂く事が可能です。
>> doc poslin
にて、伝達関数の形を確認することが可能です。
댓글 수: 0
추가 답변 (0개)
참고 항목
카테고리
Help Center 및 File Exchange에서 Deep Learning Toolbox에 대해 자세히 알아보기
Community Treasure Hunt
Find the treasures in MATLAB Central and discover how the community can help you!
Start Hunting!