leakyrelu
Leaky ReLU(Rectified Linear Unit) 활성화 적용
설명
Leaky ReLU(Rectified Linear Unit) 계층 활성화 연산은 0보다 작은 모든 입력값에 고정된 스칼라 인자를 곱하는 비선형 임계값 연산을 수행합니다.
이 연산은 다음과 동일합니다.
참고
이 함수는 dlarray 데이터에 Leaky ReLU 연산을 적용합니다. dlnetwork 객체 내에서 Leaky ReLU 활성화를 적용하려면 leakyReluLayer를 사용하십시오.
예제
입력 인수
출력 인수
확장 기능
버전 내역
R2019b에 개발됨