convolution1dLayer
설명
1차원 컨벌루션 계층은 1차원 입력값에 슬라이딩 컨벌루션 필터를 적용합니다. 이 계층은 입력값을 따라 필터를 이동하면서 가중치와 입력값의 내적을 계산한 다음 편향 항을 추가하여 입력값을 컨벌루션합니다.
계층이 컨벌루션하는 차원은 계층 입력값에 따라 다릅니다.
시계열과 벡터 시퀀스 입력값의 경우(채널, 관측값, 시간 스텝에 상응하는 3차원 데이터), 계층은 시간 차원에 대해 컨벌루션합니다.
1차원 영상 입력값의 경우(공간 픽셀, 채널, 관측값에 상응하는 3차원 데이터), 계층은 공간 차원에 대해 컨벌루션합니다.
1차원 영상 시퀀스 입력값의 경우(공간 픽셀, 채널, 관측값, 시간 스텝에 상응하는 4차원 데이터), 계층은 공간 차원에 대해 컨벌루션합니다.
생성
구문
설명
는 1차원 컨벌루션 계층을 만들고 layer
= convolution1dLayer(filterSize
,numFilters
)FilterSize
와 NumFilters
속성을 설정합니다.
는 하나 이상의 이름-값 인수를 사용하여 선택적 속성을 설정합니다.layer
= convolution1dLayer(filterSize
,numFilters
,Name=Value
)
입력 인수
필터의 너비로, 양의 정수로 지정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
필터 개수로, 양의 정수로 지정됩니다. 이 수치는 계층에서 입력값의 동일한 영역에 연결되는 뉴런의 개수에 대응됩니다. 이 파라미터는 계층의 출력값에 있는 채널(특징 맵)의 개수를 결정합니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
이름-값 인수
선택적 인수 쌍을 Name1=Value1,...,NameN=ValueN
으로 지정합니다. 여기서 Name
은 인수 이름이고 Value
는 대응값입니다. 이름-값 인수는 다른 인수 뒤에 와야 하지만, 인수 쌍의 순서는 상관없습니다.
예: convolution1dLayer(11,96,Padding=1)
은 크기가 11인 필터 96개를 갖는 1차원 컨벌루션 계층을 만들고, 계층 입력값의 왼쪽과 오른쪽에 크기 1의 채우기를 지정합니다.
입력값 순회 스텝 크기로, 양의 정수로 지정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
팽창된 컨벌루션(아트루스 컨벌루션이라고도 함) 인자로, 양의 정수로 지정됩니다.
파라미터의 개수나 연산량을 늘리지 않으면서 계층의 수용 영역(입력값에서 계층이 볼 수 있는 영역)을 늘리려는 경우 팽창된 컨벌루션을 사용할 수 있습니다.
이 계층은 각 필터 요소 사이에 0을 삽입하여 필터를 확장합니다. 팽창 인자는 입력값 추출을 위한 스텝 크기 또는 이와 동등한 필터 업샘플링 인자를 결정합니다. 팽창 인자에 따라 필터 크기가 (FilterSize – 1) .* DilationFactor + 1
로 정해집니다. 예를 들어, 팽창 인자가 2
인 1×3 필터는 요소들 사이에 0이 삽입된 1×5 필터와 같습니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
입력값에 적용할 채우기로, 다음 중 하나로 지정됩니다.
"same"
— 출력 크기가ceil(inputSize/stride)
가 되도록 채우기를 적용합니다. 여기서inputSize
는 입력값의 길이입니다.Stride
가1
이면 출력값은 입력값과 크기가 같습니다."causal"
— 입력값에(FilterSize - 1) .* DilationFactor
와 같은 크기로 왼쪽 채우기를 적용합니다.Stride
가1
이면 출력값은 입력값과 크기가 같습니다.음이 아닌 정수
sz
— 입력값의 양쪽 끝에 크기가sz
인 채우기를 더합니다.음이 아닌 정수로 구성된 벡터
[l r]
— 입력값의 왼쪽에 크기가l
인 채우기를, 오른쪽에 크기가r
인 채우기를 더합니다.
예: Padding=[2 1]
은 입력값의 왼쪽에 크기가 2인 채우기를, 오른쪽에 크기가 1인 채우기를 더합니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
데이터에 채울 값으로, 다음 중 하나로 지정됩니다.
PaddingValue | 설명 | 예 |
---|---|---|
스칼라 | 지정된 스칼라 값으로 채웁니다. | |
"symmetric-include-edge" | 가장자리 값을 포함해 미러링된 입력값을 사용하여 채웁니다. | |
"symmetric-exclude-edge" | 가장자리 값을 제외하고 미러링된 입력값을 사용하여 채웁니다. | |
"replicate" | 입력의 반복되는 테두리 요소를 사용하여 채웁니다. | |
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
입력 채널의 개수로, 다음 중 하나로 지정됩니다.
"auto"
— 훈련 시점에 자동으로 입력 채널의 개수가 결정됩니다.양의 정수 — 지정된 입력 채널의 개수에 맞게 계층을 구성합니다.
NumChannels
와 계층 입력 데이터의 채널 개수는 일치해야 합니다. 예를 들어, 입력값이 RGB 영상이면NumChannels
는 3이어야 합니다. 입력값이 16개의 필터가 있는 컨벌루션 계층의 출력값이면NumChannels
는 16이어야 합니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
가중치를 초기화하는 함수로, 다음 중 하나로 지정됩니다.
"glorot"
— Glorot 이니셜라이저[1](Xavier 이니셜라이저라고도 함)를 사용하여 가중치를 초기화합니다. Glorot 이니셜라이저는 평균이 0이고 분산이2/(numIn + numOut)
인 균등분포에서 독립적으로 샘플링합니다. 여기서numIn = FilterSize*NumChannels
이고numOut = FilterSize*NumFilters
입니다."he"
– He 이니셜라이저[2]를 사용하여 가중치를 초기화합니다. He 이니셜라이저는 평균이 0이고 분산이2/numIn
인 정규분포에서 샘플링합니다. 여기서numIn = FilterSize*NumChannels
입니다."narrow-normal"
— 평균이 0이고 표준편차가 0.01인 정규분포에서 독립적으로 샘플링하여 가중치를 초기화합니다."zeros"
— 가중치를 0으로 초기화합니다."ones"
— 가중치를 1로 초기화합니다.함수 핸들 — 사용자 지정 함수를 사용하여 가중치를 초기화합니다. 함수 핸들을 지정할 경우, 함수는
weights = func(sz)
형식이 되어야 합니다. 여기서sz
는 가중치의 크기입니다. 예제는 Specify Custom Weight Initialization Function 항목을 참조하십시오.
계층은 Weights
속성이 비어 있는 경우에만 가중치를 초기화합니다.
데이터형: char
| string
| function_handle
편향을 초기화하는 함수로, 다음 값 중 하나로 지정됩니다.
"zeros"
— 편향을 0으로 초기화합니다."ones"
— 편향을 1로 초기화합니다."narrow-normal"
— 평균이 0이고 표준편차가 0.01인 정규분포에서 독립적으로 샘플링하여 편향을 초기화합니다.함수 핸들 — 사용자 지정 함수를 사용하여 편향을 초기화합니다. 함수 핸들을 지정할 경우, 함수는
bias = func(sz)
형식을 가져야 합니다. 여기서sz
는 편향의 크기입니다.
계층은 Bias
속성이 비어 있는 경우에만 편향을 초기화합니다.
데이터형: char
| string
| function_handle
전치 컨벌루션 연산의 계층 가중치로, FilterSize
×NumChannels
×numFilters
숫자형 배열 또는 []
로 지정됩니다.
계층 가중치는 학습 가능한 파라미터입니다. 계층의 Weights
속성을 사용하여 가중치의 초기값을 직접 지정할 수 있습니다. 신경망을 훈련시킬 때 계층의 Weights
속성이 비어 있지 않으면 trainnet
함수 및 trainNetwork
함수는 Weights
속성을 초기값으로 사용합니다. Weights
속성이 비어 있으면 계층의 WeightsInitializer
속성으로 지정된 이니셜라이저가 사용됩니다.
데이터형: single
| double
전치 컨벌루션 연산의 계층 편향으로, 1×NumFilters
숫자형 배열 또는 []
로 지정됩니다.
계층 편향은 학습 가능한 파라미터입니다. 신경망을 훈련시킬 때 Bias
가 비어 있지 않으면 trainnet
및 trainNetwork
함수는 Bias
속성을 초기값으로 사용합니다. Bias
가 비어 있으면 BiasInitializer
로 지정된 이니셜라이저가 사용됩니다.
데이터형: single
| double
가중치에 대한 학습률 인자로, 음이 아닌 스칼라로 지정됩니다.
이 인자에 전역 학습률을 곱하여 이 계층의 가중치에 대한 학습률이 결정됩니다. 예를 들어, WeightLearnRateFactor
가 2
인 경우, 이 계층의 가중치에 대한 학습률은 현재 전역 학습률의 2배입니다. trainingOptions
함수를 사용하여 지정한 설정을 기반으로 전역 학습률이 결정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
편향에 대한 학습률 인자로, 음이 아닌 스칼라로 지정됩니다.
이 인자에 전역 학습률을 곱하여 이 계층의 편향에 대한 학습률이 결정됩니다. 예를 들어, BiasLearnRateFactor
가 2
인 경우, 이 계층의 편향에 대한 학습률은 현재 전역 학습률의 2배입니다. trainingOptions
함수를 사용하여 지정한 설정을 기반으로 전역 학습률이 결정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
가중치에 대한 L2 정규화 인자로, 음이 아닌 스칼라로 지정됩니다.
이 인자에 전역 L2 정규화 인자를 곱하여 이 계층의 가중치에 대한 L2 정규화가 결정됩니다. 예를 들어, WeightL2Factor
가 2
인 경우, 이 계층의 가중치에 대한 L2 정규화는 전역 L2 정규화 인자의 2배입니다. 전역 L2 정규화 인자는 trainingOptions
함수를 사용하여 지정할 수 있습니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
편향에 대한 L2 정규화 인자로, 음이 아닌 스칼라로 지정됩니다.
이 인자에 전역 L2 정규화 인자를 곱하여 이 계층의 편향에 대한 L2 정규화가 결정됩니다. 예를 들어, BiasL2Factor
가 2
인 경우, 이 계층의 편향에 대한 L2 정규화는 전역 L2 정규화 인자의 2배입니다. trainingOptions
함수를 사용하여 지정한 설정을 기반으로 전역 L2 정규화 인자가 결정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
속성
컨벌루션
읽기 전용 속성입니다.
필터의 너비로, 양의 정수로 지정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
읽기 전용 속성입니다.
필터 개수로, 양의 정수로 지정됩니다. 이 수치는 계층에서 입력값의 동일한 영역에 연결되는 뉴런의 개수에 대응됩니다. 이 파라미터는 계층의 출력값에 있는 채널(특징 맵)의 개수를 결정합니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
입력값 순회 스텝 크기로, 양의 정수로 지정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
팽창된 컨벌루션(아트루스 컨벌루션이라고도 함) 인자로, 양의 정수로 지정됩니다.
파라미터의 개수나 연산량을 늘리지 않으면서 계층의 수용 영역(입력값에서 계층이 볼 수 있는 영역)을 늘리려는 경우 팽창된 컨벌루션을 사용할 수 있습니다.
이 계층은 각 필터 요소 사이에 0을 삽입하여 필터를 확장합니다. 팽창 인자는 입력값 추출을 위한 스텝 크기 또는 이와 동등한 필터 업샘플링 인자를 결정합니다. 팽창 인자에 따라 필터 크기가 (FilterSize – 1) .* DilationFactor + 1
로 정해집니다. 예를 들어, 팽창 인자가 2
인 1×3 필터는 요소들 사이에 0이 삽입된 1×5 필터와 같습니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
입력값의 양쪽에 적용할 채우기 크기로, 2개의 음이 아닌 정수로 구성된 벡터 [l r]
로 지정됩니다. 여기서 l
는 왼쪽에 적용할 채우기이고, r
은 오른쪽에 적용할 채우기입니다.
계층을 만들 때 Padding
이름-값 인수를 사용하여 채우기 크기를 지정합니다.
데이터형: double
읽기 전용 속성입니다.
채우기 크기를 결정하는 방법으로, 다음 중 하나로 지정됩니다.
'manual'
–Padding
으로 지정된 정수 또는 벡터를 사용하여 채웁니다.'same'
– 출력 크기가ceil(inputSize/Stride)
가 되도록 채우기를 적용합니다. 여기서inputSize
는 입력값의 길이입니다.Stride
가1
이면 출력값은 입력값과 같습니다.'causal'
— 인과적 채우기를 적용합니다. 입력값의 왼쪽을 채우기 크기(FilterSize - 1) .* DilationFactor
로 채웁니다.
계층 채우기를 지정하려면 Padding
이름-값 인수를 사용하십시오.
데이터형: char
읽기 전용 속성입니다.
데이터에 채울 값으로, 다음 중 하나로 지정됩니다.
PaddingValue | 설명 | 예 |
---|---|---|
스칼라 | 지정된 스칼라 값으로 채웁니다. | |
"symmetric-include-edge" | 가장자리 값을 포함해 미러링된 입력값을 사용하여 채웁니다. | |
"symmetric-exclude-edge" | 가장자리 값을 제외하고 미러링된 입력값을 사용하여 채웁니다. | |
"replicate" | 입력의 반복되는 테두리 요소를 사용하여 채웁니다. | |
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
읽기 전용 속성입니다.
입력 채널의 개수로, 다음 중 하나로 지정됩니다.
"auto"
— 훈련 시점에 자동으로 입력 채널의 개수가 결정됩니다.양의 정수 — 지정된 입력 채널의 개수에 맞게 계층을 구성합니다.
NumChannels
와 계층 입력 데이터의 채널 개수는 일치해야 합니다. 예를 들어, 입력값이 RGB 영상이면NumChannels
는 3이어야 합니다. 입력값이 16개의 필터가 있는 컨벌루션 계층의 출력값이면NumChannels
는 16이어야 합니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
파라미터 및 초기화
가중치를 초기화하는 함수로, 다음 중 하나로 지정됩니다.
"glorot"
— Glorot 이니셜라이저[1](Xavier 이니셜라이저라고도 함)를 사용하여 가중치를 초기화합니다. Glorot 이니셜라이저는 평균이 0이고 분산이2/(numIn + numOut)
인 균등분포에서 독립적으로 샘플링합니다. 여기서numIn = FilterSize*NumChannels
이고numOut = FilterSize*NumFilters
입니다."he"
– He 이니셜라이저[2]를 사용하여 가중치를 초기화합니다. He 이니셜라이저는 평균이 0이고 분산이2/numIn
인 정규분포에서 샘플링합니다. 여기서numIn = FilterSize*NumChannels
입니다."narrow-normal"
— 평균이 0이고 표준편차가 0.01인 정규분포에서 독립적으로 샘플링하여 가중치를 초기화합니다."zeros"
— 가중치를 0으로 초기화합니다."ones"
— 가중치를 1로 초기화합니다.함수 핸들 — 사용자 지정 함수를 사용하여 가중치를 초기화합니다. 함수 핸들을 지정할 경우, 함수는
weights = func(sz)
형식이 되어야 합니다. 여기서sz
는 가중치의 크기입니다. 예제는 Specify Custom Weight Initialization Function 항목을 참조하십시오.
계층은 Weights
속성이 비어 있는 경우에만 가중치를 초기화합니다.
데이터형: char
| string
| function_handle
편향을 초기화하는 함수로, 다음 값 중 하나로 지정됩니다.
"zeros"
— 편향을 0으로 초기화합니다."ones"
— 편향을 1로 초기화합니다."narrow-normal"
— 평균이 0이고 표준편차가 0.01인 정규분포에서 독립적으로 샘플링하여 편향을 초기화합니다.함수 핸들 — 사용자 지정 함수를 사용하여 편향을 초기화합니다. 함수 핸들을 지정할 경우, 함수는
bias = func(sz)
형식을 가져야 합니다. 여기서sz
는 편향의 크기입니다.
계층은 Bias
속성이 비어 있는 경우에만 편향을 초기화합니다.
Convolution1DLayer
객체는 이 속성을 문자형 벡터 또는 함수 핸들로 저장합니다.
데이터형: char
| string
| function_handle
전치 컨벌루션 연산의 계층 가중치로, FilterSize
×NumChannels
×numFilters
숫자형 배열 또는 []
로 지정됩니다.
계층 가중치는 학습 가능한 파라미터입니다. 계층의 Weights
속성을 사용하여 가중치의 초기값을 직접 지정할 수 있습니다. 신경망을 훈련시킬 때 계층의 Weights
속성이 비어 있지 않으면 trainnet
함수는 Weights
속성을 초기값으로 사용합니다. Weights
속성이 비어 있으면 계층의 WeightsInitializer
속성으로 지정된 이니셜라이저가 사용됩니다.
데이터형: single
| double
전치 컨벌루션 연산의 계층 편향으로, 1×NumFilters
숫자형 배열 또는 []
로 지정됩니다.
계층 편향은 학습 가능한 파라미터입니다. 신경망을 훈련시킬 때 Bias
가 비어 있지 않으면 trainnet
함수가 Bias
속성을 초기값으로 사용합니다. Bias
가 비어 있으면 BiasInitializer
로 지정된 이니셜라이저가 사용됩니다.
데이터형: single
| double
학습률 및 정규화
가중치에 대한 학습률 인자로, 음이 아닌 스칼라로 지정됩니다.
이 인자에 전역 학습률을 곱하여 이 계층의 가중치에 대한 학습률이 결정됩니다. 예를 들어, WeightLearnRateFactor
가 2
인 경우, 이 계층의 가중치에 대한 학습률은 현재 전역 학습률의 2배입니다. trainingOptions
함수를 사용하여 지정한 설정을 기반으로 전역 학습률이 결정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
편향에 대한 학습률 인자로, 음이 아닌 스칼라로 지정됩니다.
이 인자에 전역 학습률을 곱하여 이 계층의 편향에 대한 학습률이 결정됩니다. 예를 들어, BiasLearnRateFactor
가 2
인 경우, 이 계층의 편향에 대한 학습률은 현재 전역 학습률의 2배입니다. trainingOptions
함수를 사용하여 지정한 설정을 기반으로 전역 학습률이 결정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
가중치에 대한 L2 정규화 인자로, 음이 아닌 스칼라로 지정됩니다.
이 인자에 전역 L2 정규화 인자를 곱하여 이 계층의 가중치에 대한 L2 정규화가 결정됩니다. 예를 들어, WeightL2Factor
가 2
인 경우, 이 계층의 가중치에 대한 L2 정규화는 전역 L2 정규화 인자의 2배입니다. 전역 L2 정규화 인자는 trainingOptions
함수를 사용하여 지정할 수 있습니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
편향에 대한 L2 정규화 인자로, 음이 아닌 스칼라로 지정됩니다.
이 인자에 전역 L2 정규화 인자를 곱하여 이 계층의 편향에 대한 L2 정규화가 결정됩니다. 예를 들어, BiasL2Factor
가 2
인 경우, 이 계층의 편향에 대한 L2 정규화는 전역 L2 정규화 인자의 2배입니다. trainingOptions
함수를 사용하여 지정한 설정을 기반으로 전역 L2 정규화 인자가 결정됩니다.
데이터형: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
계층
읽기 전용 속성입니다.
계층에 대한 입력값의 개수로, 1
로 저장됩니다. 이 계층은 단일 입력값만 받습니다.
데이터형: double
읽기 전용 속성입니다.
입력값 이름으로, {'in'}
으로 저장됩니다. 이 계층은 단일 입력값만 받습니다.
데이터형: cell
읽기 전용 속성입니다.
계층의 출력값 개수로, 1
로 저장됩니다. 이 계층은 단일 출력값만 가집니다.
데이터형: double
읽기 전용 속성입니다.
출력값 이름으로, {'out'}
으로 저장됩니다. 이 계층은 단일 출력값만 가집니다.
데이터형: cell
예제
너비가 11인 필터 96개를 갖는 1차원 컨벌루션 계층을 만듭니다.
layer = convolution1dLayer(11,96);
Layer
배열에 1차원 컨벌루션 계층을 포함시킵니다.
layers = [ sequenceInputLayer(3,MinLength=20) layer reluLayer globalMaxPooling1dLayer fullyConnectedLayer(10) softmaxLayer]
layers = 6×1 Layer array with layers: 1 '' Sequence Input Sequence input with 3 dimensions 2 '' 1-D Convolution 96 11 convolutions with stride 1 and padding [0 0] 3 '' ReLU ReLU 4 '' 1-D Global Max Pooling 1-D global max pooling 5 '' Fully Connected 10 fully connected layer 6 '' Softmax softmax
알고리즘
1차원 컨벌루션 계층은 1차원 입력값에 슬라이딩 컨벌루션 필터를 적용합니다. 이 계층은 입력값을 따라 필터를 이동하면서 가중치와 입력값의 내적을 계산한 다음 편향 항을 추가하여 입력값을 컨벌루션합니다.
계층이 컨벌루션하는 차원은 계층 입력값에 따라 다릅니다.
시계열과 벡터 시퀀스 입력값의 경우(채널, 관측값, 시간 스텝에 상응하는 3차원 데이터), 계층은 시간 차원에 대해 컨벌루션합니다.
1차원 영상 입력값의 경우(공간 픽셀, 채널, 관측값에 상응하는 3차원 데이터), 계층은 공간 차원에 대해 컨벌루션합니다.
1차원 영상 시퀀스 입력값의 경우(공간 픽셀, 채널, 관측값, 시간 스텝에 상응하는 4차원 데이터), 계층은 공간 차원에 대해 컨벌루션합니다.
계층 배열 또는 계층 그래프의 계층은 뒤에 오는 계층에 데이터를 전달할 때 형식이 지정된 dlarray
객체로 전달합니다. dlarray
객체의 형식은 문자들로 구성된 문자열로, 각 문자는 데이터의 대응되는 차원을 설명합니다. 형식은 다음 문자 중 하나 이상으로 구성됩니다.
"S"
— 공간"C"
— 채널"B"
— 배치"T"
— 시간"U"
— 지정되지 않음
예를 들어 벡터 시퀀스 데이터를 3차원 배열로 표현할 수 있습니다. 여기서 첫 번째 차원은 채널 차원에, 두 번째 차원은 배치 차원에, 세 번째 차원은 시간 차원에 대응됩니다. 이 표현은 "CBT"
(채널, 배치, 시간) 형식입니다.
functionLayer
객체를 사용하여 사용자 지정 계층을 개발하거나, dlnetwork
객체에 forward
및 predict
함수를 사용하는 경우와 같은 자동 미분 워크플로에서 이러한 dlarray
객체와 상호 작용할 수 있습니다.
이 표는 Convolution1DLayer
객체의 지원되는 입력 형식과 그에 대응되는 출력 형식을 보여줍니다. 계층의 출력이 nnet.layer.Formattable
클래스를 상속하지 않는 사용자 지정 계층에 전달되거나 Formattable
속성을 0
(false
)으로 설정한 FunctionLayer
객체에 전달될 경우 이 계층은 이 표에 나와 있는 형식에 따라 순서가 지정된 차원을 갖는, 형식이 지정되지 않은 dlarray
객체를 수신합니다. 여기에 나와 있는 형식은 일부에 불과합니다. 계층은 다른 형식도 지원할 수 있습니다(예: 추가적인 "S"
(공간) 또는 "U"
(미지정) 차원을 갖는 형식).
입력 형식 | 출력 형식 |
---|---|
|
|
|
|
|
|
dlnetwork
객체에서 Convolution1DLayer
객체는 다음 입력 형식과 출력 형식의 결합도 지원합니다.
입력 형식 | 출력 형식 |
---|---|
|
|
|
|
|
|
참고 문헌
[1] Glorot, Xavier, and Yoshua Bengio. "Understanding the Difficulty of Training Deep Feedforward Neural Networks." In Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, 249–356. Sardinia, Italy: AISTATS, 2010. https://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf
[2] He, Kaiming, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification." In 2015 IEEE International Conference on Computer Vision (ICCV), 1026–34. Santiago, Chile: IEEE, 2015. https://doi.org/10.1109/ICCV.2015.123
확장 기능
사용법 관련 참고 및 제한 사항:
타사 라이브러리를 사용하지 않는 제네릭 C/C++ 코드를 생성하고 생성된 코드를 하드웨어 플랫폼에 배포할 수 있습니다.
사용법 관련 참고 및 제한 사항:
딥러닝 라이브러리를 사용하지 않는 CUDA 코드를 생성하고 생성된 코드를 NVIDIA® GPU 프로세서를 사용하는 플랫폼에 배포할 수 있습니다.
버전 내역
R2021b에 개발됨
MATLAB Command
You clicked a link that corresponds to this MATLAB command:
Run the command by entering it in the MATLAB Command Window. Web browsers do not support MATLAB commands.
웹사이트 선택
번역된 콘텐츠를 보고 지역별 이벤트와 혜택을 살펴보려면 웹사이트를 선택하십시오. 현재 계신 지역에 따라 다음 웹사이트를 권장합니다:
또한 다음 목록에서 웹사이트를 선택하실 수도 있습니다.
사이트 성능 최적화 방법
최고의 사이트 성능을 위해 중국 사이트(중국어 또는 영어)를 선택하십시오. 현재 계신 지역에서는 다른 국가의 MathWorks 사이트 방문이 최적화되지 않았습니다.
미주
- América Latina (Español)
- Canada (English)
- United States (English)
유럽
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)