이 페이지의 최신 내용은 아직 번역되지 않았습니다. 최신 내용은 영문으로 볼 수 있습니다.
Clipped ReLU(Rectified Linear Unit) 계층
Clipped ReLU 계층은 0보다 작은 입력값은 모두 0으로 설정하고 자르기 상한(clipping ceiling)보다 큰 값은 모두 자르기 상한값으로 설정하는 임계값 연산을 수행합니다.
이 연산은 다음과 동일합니다.
자르기는 출력값이 지나치게 커지는 것을 방지합니다.
[1] Hannun, Awni, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan Prenger, et al. "Deep speech: Scaling up end-to-end speech recognition." Preprint, submitted 17 Dec 2014. http://arxiv.org/abs/1412.5567