clippedReluLayer
Clipped ReLU(Rectified Linear Unit) 계층
설명
Clipped ReLU 계층은 0보다 작은 입력값은 모두 0으로 설정하고 자르기 상한(clipping ceiling)보다 큰 값은 모두 자르기 상한값으로 설정하는 임계값 연산을 수행합니다.
이 연산은 다음과 동일합니다.
자르기는 출력값이 지나치게 커지는 것을 방지합니다.
생성
속성
예제
알고리즘
참고 문헌
[1] Hannun, Awni, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan Prenger, et al. "Deep speech: Scaling up end-to-end speech recognition." Preprint, submitted 17 Dec 2014. http://arxiv.org/abs/1412.5567
확장 기능
버전 내역
R2017b에 개발됨