이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
leakyReluLayer
Leaky ReLU(Rectified Linear Unit) 계층
설명
Leaky ReLU 계층은 0보다 작은 모든 입력값에 고정된 스칼라를 곱하는 임계값 연산을 수행합니다.
이 연산은 다음과 동일합니다.
생성
속성
예제
알고리즘
참고 문헌
[1] Maas, Andrew L., Awni Y. Hannun, and Andrew Y. Ng. "Rectifier nonlinearities improve neural network acoustic models." In Proc. ICML, vol. 30, no. 1. 2013.
확장 기능
버전 내역
R2017b에 개발됨