주요 콘텐츠

complexReluLayer

복소 ReLU(Rectified Linear Unit) 계층

R2025a 이후

    설명

    복소 ReLU 계층은 입력값의 실수부와 허수부에 대해 0보다 작은 값은 모두 0으로 설정하는 임계값 연산을 수행합니다.

    생성

    설명

    layer = complexReluLayer는 복소 ReLU 계층을 만듭니다.

    예제

    layer = complexReluLayer(Name=name)은 이름-값 인수를 사용하여 선택적 속성인 Name도 설정합니다.

    속성

    모두 확장

    계층 이름으로, 문자형 벡터 또는 string형 스칼라로 지정됩니다. Layer 배열 입력값에 대해 trainnetdlnetwork 함수는 이름이 지정되지 않은 계층에 자동으로 이름을 할당합니다.

    ComplexReLULayer 객체는 이 속성을 문자형 벡터로 저장합니다.

    데이터형: char | string

    읽기 전용 속성입니다.

    계층에 대한 입력값의 개수로, 1로 저장됩니다. 이 계층은 단일 입력값만 받습니다.

    데이터형: double

    읽기 전용 속성입니다.

    입력값 이름으로, {'in'}으로 저장됩니다. 이 계층은 단일 입력값만 받습니다.

    데이터형: cell

    읽기 전용 속성입니다.

    계층의 출력값 개수로, 1로 저장됩니다. 이 계층은 단일 출력값만 가집니다.

    데이터형: double

    읽기 전용 속성입니다.

    출력값 이름으로, {'out'}으로 저장됩니다. 이 계층은 단일 출력값만 가집니다.

    데이터형: cell

    예제

    모두 축소

    복소 ReLU 계층을 만듭니다.

    layer = complexReluLayer
    layer = 
      ComplexReLULayer with properties:
    
        Name: ''
    
       Learnable Parameters
        No properties.
    
       State Parameters
        No properties.
    
      Show all properties
    
    

    알고리즘

    모두 확장

    버전 내역

    R2025a에 개발됨