주요 콘텐츠

complexReluLayer

복소 ReLU(Rectified Linear Unit) 계층

R2025a 이후

    설명

    복소 ReLU 계층은 입력값의 실수부와 허수부에 대해 0보다 작은 값은 모두 0으로 설정하는 임계값 연산을 수행합니다.

    생성

    설명

    layer = complexReluLayer는 복소 ReLU 계층을 만듭니다.

    예제

    layer = complexReluLayer(Name=name)은 이름-값 인수를 사용하여 선택적 속성인 Name도 설정합니다.

    속성

    모두 확장

    계층 이름으로, 문자형 벡터로 지정됩니다. Layer 배열 입력값에 대해 trainnetdlnetwork 함수는 이름이 지정되지 않은 계층에 자동으로 이름을 할당합니다.

    데이터형: char

    읽기 전용 속성입니다.

    계층에 대한 입력값의 개수로, 1로 저장됩니다. 이 계층은 단일 입력값만 받습니다.

    데이터형: double

    읽기 전용 속성입니다.

    입력값 이름으로, {'in'}으로 저장됩니다. 이 계층은 단일 입력값만 받습니다.

    데이터형: cell

    읽기 전용 속성입니다.

    계층의 출력값 개수로, 1로 저장됩니다. 이 계층은 단일 출력값만 가집니다.

    데이터형: double

    읽기 전용 속성입니다.

    출력값 이름으로, {'out'}으로 저장됩니다. 이 계층은 단일 출력값만 가집니다.

    데이터형: cell

    예제

    모두 축소

    복소 ReLU 계층을 만듭니다.

    layer = complexReluLayer
    layer = 
      ComplexReLULayer with properties:
    
        Name: ''
    
       Learnable Parameters
        No properties.
    
       State Parameters
        No properties.
    
      Show all properties
    
    

    알고리즘

    모두 확장

    버전 내역

    R2025a에 개발됨