Main Content

relu

ReLU(Rectified Linear Unit) 활성화 적용

설명

ReLU(Rectified Linear Unit) 활성화 연산은 0보다 작은 모든 입력값을 0으로 설정하는 비선형 임계값 연산을 수행합니다.

이 연산은 다음과 동일합니다.

f(x)={x,x>00,x0.

참고

이 함수는 dlarray 데이터에 ReLU 연산을 적용합니다. layerGraph 객체 또는 Layer 배열 내에서 ReLU 활성화를 적용하려면 다음 계층을 사용하십시오.

예제

Y = relu(X)는 임계값 연산을 적용하여 입력값 X의 ReLU 활성화를 계산합니다. X에서 0보다 작은 값은 모두 0으로 설정됩니다.

예제

모두 축소

3개의 채널이 있는 128개의 28×28 영상 배치를 포함하는 형식이 지정된 dlarray 객체를 만듭니다. 'SSCB'(공간, 공간, 채널, 배치) 형식을 지정합니다.

miniBatchSize = 128;
inputSize = [28 28];
numChannels = 3;
X = rand(inputSize(1),inputSize(2),numChannels,miniBatchSize);
X = dlarray(X,"SSCB");

입력 데이터의 크기와 형식을 확인합니다.

size(X)
ans = 1×4

    28    28     3   128

dims(X)
ans = 
'SSCB'

relu 함수를 사용하여 ReLU 연산을 적용합니다.

Y = relu(X);

출력값의 크기와 형식을 확인합니다.

size(Y)
ans = 1×4

    28    28     3   128

dims(Y)
ans = 
'SSCB'

입력 인수

모두 축소

입력 데이터로, 형식이 지정된 또는 형식이 지정되지 않은 dlarray 객체로 지정됩니다.

출력 인수

모두 축소

ReLU 활성화로, dlarray로 반환됩니다. 출력값 Y는 입력값 X와 기본 데이터형이 같습니다.

입력 데이터 X가 형식이 지정된 dlarray인 경우 YX와 차원 형식이 같습니다. 입력 데이터가 형식이 지정된 dlarray가 아닌 경우, Y는 입력 데이터와 차원 차수가 같은, 형식이 지정되지 않은 dlarray입니다.

확장 기능

버전 내역

R2019b에 개발됨