leakyReluLayer
Leaky ReLU(Rectified Linear Unit) 계층
설명
Leaky ReLU 계층은 0보다 작은 모든 입력값에 고정된 스칼라를 곱하는 임계값 연산을 수행합니다.
이 연산은 다음과 동일합니다.
생성
속성
예제
알고리즘
참고 문헌
[1] Maas, Andrew L., Awni Y. Hannun, and Andrew Y. Ng. "Rectifier nonlinearities improve neural network acoustic models." In Proc. ICML, vol. 30, no. 1. 2013.
확장 기능
버전 내역
R2017b에 개발됨