이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
clippedReluLayer
Clipped ReLU(Rectified Linear Unit) 계층
설명
Clipped ReLU 계층은 0보다 작은 입력값은 모두 0으로 설정하고 자르기 상한(clipping ceiling)보다 큰 값은 모두 자르기 상한값으로 설정하는 임계값 연산을 수행합니다.
이 연산은 다음과 동일합니다.
자르기는 출력값이 지나치게 커지는 것을 방지합니다.
생성
속성
예제
알고리즘
참고 문헌
[1] Hannun, Awni, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan Prenger, et al. "Deep speech: Scaling up end-to-end speech recognition." Preprint, submitted 17 Dec 2014. http://arxiv.org/abs/1412.5567
확장 기능
버전 내역
R2017b에 개발됨