Main Content

이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.

relu

ReLU(Rectified Linear Unit) 활성화 적용

설명

ReLU(Rectified Linear Unit) 활성화 연산은 0보다 작은 모든 입력값을 0으로 설정하는 비선형 임계값 연산을 수행합니다.

이 연산은 다음과 동일합니다.

f(x)={x,x>00,x0.

참고

이 함수는 dlarray 데이터에 ReLU 연산을 적용합니다. layerGraph 객체 또는 Layer 배열 내에서 ReLU 활성화를 적용하려면 다음 계층을 사용하십시오.

예제

dlY = relu(dlX)는 임계값 연산을 적용하여 입력값 dlX의 ReLU 활성화를 계산합니다. 0보다 작은 dlX의 모든 값은 0으로 설정됩니다.

예제

모두 축소

relu 함수를 사용하여 입력 데이터의 음수 값을 0으로 설정합니다.

입력 데이터를 높이와 너비가 12이고 32개의 채널을 갖는 난수로 구성된 단일 관측값으로 만듭니다.

height = 12;
width = 12;
channels = 32;
observations = 1;

X = randn(height,width,channels,observations);
dlX = dlarray(X,'SSCB');

Leaky ReLU 활성화를 계산합니다.

dlY = relu(dlX);

dlX의 모든 음수 값은 이제 0으로 설정됩니다.

입력 인수

모두 축소

입력 데이터로, 형식이 지정된 dlarray, 형식이 지정되지 않은 dlarray 또는 숫자형 배열로 지정됩니다.

데이터형: single | double

출력 인수

모두 축소

ReLU 활성화로, dlarray로 반환됩니다. 출력값 dlY는 입력값 dlX와 기본 데이터형이 같습니다.

입력 데이터 dlX가 형식이 지정된 dlarray인 경우 dlYdlX와 차원 형식이 같습니다. 입력 데이터가 형식이 지정된 dlarray가 아닌 경우, dlY는 입력 데이터와 차원 차수가 같은, 형식이 지정되지 않은 dlarray입니다.

확장 기능

버전 내역

R2019b에 개발됨