reluLayer
ReLU(Rectified Linear Unit) 계층
설명
ReLU 계층은 입력값의 각 요소에 대해 0보다 작은 값은 모두 0으로 설정하는 임계값 연산을 수행합니다.
이 연산은 다음과 동일합니다.
생성
속성
예제
세부 정보
참고 문헌
[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.
확장 기능
버전 내역
R2016a에 개발됨