Main Content

연산

사용자 지정 딥러닝 함수 개발

대부분의 작업에서 내장 계층을 사용할 수 있습니다. 작업에 필요한 내장 계층이 없는 경우 자신만의 고유한 사용자 지정 계층을 정의할 수 있습니다. 사용자 지정 출력 계층을 사용하여 사용자 지정 손실 함수를 지정하고 학습 가능한 파라미터와 상태 파라미터를 포함하는 사용자 지정 계층을 정의할 수 있습니다. 사용자 지정 계층을 정의한 후에는 이 계층이 유효하고, GPU와 호환되며, 올바르게 정의된 기울기를 출력하는지 확인할 수 있습니다. 자세한 내용은 사용자 지정 딥러닝 계층 정의하기 항목을 참조하십시오. 지원되는 계층 목록은 딥러닝 계층 목록 항목을 참조하십시오.

trainingOptions 함수가 작업에 필요한 훈련 옵션을 제공하지 않거나 사용자 지정한 출력 계층이 필요한 손실 함수를 지원하지 않을 경우에는 사용자 지정 훈련 루프를 정의할 수 있습니다. 계층 그래프가 지원하지 않는 모델의 경우 사용자 지정 모델을 함수로 정의할 수 있습니다. 자세한 내용은 사용자 지정 훈련 루프, 손실 함수 및 신경망 정의 항목을 참조하십시오.

딥러닝 연산을 사용하여 사용자 지정 계층, 훈련 루프 및 모델 함수에 대한 MATLAB® 코드를 개발합니다.

함수

모두 확장

dlarray사용자 지정을 위한 딥러닝 배열 (R2019b 이후)
dimsdlarray의 차원 레이블 (R2019b 이후)
finddimFind dimensions with specified label (R2019b 이후)
stripdimsRemove dlarray data format (R2019b 이후)
extractdatadlarray에서 데이터 추출 (R2019b 이후)
isdlarrayCheck if object is dlarray (R2020b 이후)
dlconvDeep learning convolution (R2019b 이후)
dltranspconvDeep learning transposed convolution (R2019b 이후)
lstm장단기 기억 (R2019b 이후)
gruGated recurrent unit (R2020a 이후)
attentionDot-product attention (R2022b 이후)
embedEmbed discrete data (R2020b 이후)
fullyconnectSum all weighted input data and apply a bias (R2019b 이후)
dlode45Deep learning solution of nonstiff ordinary differential equation (ODE) (R2021b 이후)
batchnormNormalize data across all observations for each channel independently (R2019b 이후)
crosschannelnormCross channel square-normalize using local responses (R2020a 이후)
groupnormNormalize data across grouped subsets of channels for each observation independently (R2020b 이후)
instancenormNormalize across each channel for each observation independently (R2021a 이후)
layernormNormalize data across all channels for each observation independently (R2021a 이후)
avgpoolPool data to average values over spatial dimensions (R2019b 이후)
maxpoolPool data to maximum value (R2019b 이후)
maxunpoolUnpool the output of a maximum pooling operation (R2019b 이후)
reluReLU(Rectified Linear Unit) 활성화 적용 (R2019b 이후)
leakyreluApply leaky rectified linear unit activation (R2019b 이후)
geluApply Gaussian error linear unit (GELU) activation (R2022b 이후)
softmax채널 차원에 소프트맥스 활성화 적용 (R2019b 이후)
sigmoid시그모이드 활성화 적용 (R2019b 이후)
crossentropyCross-entropy loss for classification tasks (R2019b 이후)
l1lossL1 loss for regression tasks (R2021b 이후)
l2lossL2 loss for regression tasks (R2021b 이후)
huberHuber loss for regression tasks (R2021a 이후)
mse평균 제곱 오차의 절반 (R2019b 이후)
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification (R2021a 이후)
dlaccelerateAccelerate deep learning function for custom training loops (R2021a 이후)
AcceleratedFunctionAccelerated deep learning function (R2021a 이후)
clearCacheClear accelerated deep learning function trace cache (R2021a 이후)

도움말 항목

자동 미분

모델 함수

딥러닝 함수 가속