이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
딥러닝 계층 목록
이 페이지에는 MATLAB®에서 제공하는 딥러닝 계층의 목록이 정리되어 있습니다.
다양한 작업을 위해 계층에서 신경망을 만드는 방법을 알아보려면 다음 예제를 참조하십시오.
작업 | 자세히 알아보기 |
---|---|
영상 분류 또는 회귀를 위한 딥러닝 신경망 만들기. | |
시퀀스 및 시계열 데이터를 위한 딥러닝 신경망 만들기. | |
오디오 데이터를 위한 딥러닝 신경망 만들기. | 딥러닝을 사용해 음성 명령 인식 모델 훈련시키기 |
텍스트 데이터를 위한 딥러닝 신경망 만들기. |
딥러닝 계층
다음 함수를 사용하여 다양한 계층 유형을 만들 수 있습니다. 또는 심층 신경망 디자이너 앱을 사용하여 대화형 방식으로 신경망을 만들 수 있습니다.
사용자 지정 계층을 정의하는 방법은 사용자 지정 딥러닝 계층 정의하기 항목을 참조하십시오.
입력 계층
아이콘 | 계층 | 설명 |
---|---|---|
영상 입력 계층은 신경망에 2차원 영상을 입력하고 데이터 정규화를 적용합니다. | ||
3차원 영상 입력 계층은 신경망에 3차원 영상 또는 3차원 볼륨을 입력하고 데이터 정규화를 적용합니다. | ||
시퀀스 입력 계층은 신경망에 시퀀스 데이터를 입력하고 데이터 정규화를 적용합니다. | ||
특징 입력 계층은 신경망에 특징 데이터를 입력하고 데이터 정규화를 적용합니다. 특징을 나타내는, 숫자형 스칼라로 구성된 데이터 세트(공간 차원 또는 시간 차원이 없는 데이터)가 있는 경우 이 계층을 사용하십시오. | ||
입력 계층은 형식이 지정되지 않은 데이터 또는 사용자 지정 형식의 데이터를 신경망에 입력합니다. | ||
| 포인트 클라우드 입력 계층은 신경망에 3차원 포인트 클라우드를 입력하고 데이터 정규화를 적용합니다. 뿐만 아니라 2차원 라이다 스캔과 같은 포인트 클라우드 데이터를 입력할 수도 있습니다. |
컨벌루션 계층과 완전 연결 계층
아이콘 | 계층 | 설명 |
---|---|---|
1차원 컨벌루션 계층은 1차원 입력값에 슬라이딩 컨벌루션 필터를 적용합니다. | ||
2차원 컨벌루션 계층은 2차원 입력값에 슬라이딩 컨벌루션 필터를 적용합니다. | ||
3차원 컨벌루션 계층은 3차원 입력값에 슬라이딩 직육면체 컨벌루션 필터를 적용합니다. | ||
2차원 그룹 컨벌루션 계층은 입력 채널을 여러 그룹으로 분리해서 슬라이딩 컨벌루션 필터를 적용합니다. 그룹 컨벌루션 계층은 채널별로 분리 가능한(심도별로 분리 가능하다고 하기도 함) 컨벌루션에 사용하십시오. | ||
전치 1차원 컨벌루션 계층은 1차원 특징 맵을 업샘플링합니다. | ||
전치 2차원 컨벌루션 계층은 2차원 특징 맵을 업샘플링합니다. | ||
전치 3차원 컨벌루션 계층은 3차원 특징 맵을 업샘플링합니다. | ||
완전 연결 계층은 입력값에 가중치 행렬을 곱한 다음 편향 벡터를 더합니다. |
시퀀스 계층
아이콘 | 계층 | 설명 |
---|---|---|
시퀀스 입력 계층은 신경망에 시퀀스 데이터를 입력하고 데이터 정규화를 적용합니다. | ||
LSTM 계층은 시계열 및 시퀀스 데이터에서 시간 스텝 간의 장기 종속성을 학습하는 RNN 계층입니다. | ||
투영 LSTM 계층은 투영된 학습 가능 가중치를 사용하여 시계열 및 시퀀스 데이터에서 시간 스텝 간의 장기 종속성을 학습하는 RNN 계층입니다. | ||
BiLSTM(양방향 장단기 기억) 계층은 시계열 또는 시퀀스 데이터의 시간 스텝 간의 양방향 장기 종속성을 학습하는 RNN 계층입니다. 이러한 종속성은 RNN이 각 시간 스텝에서 전체 시계열로부터 학습하도록 하려는 경우에 유용할 수 있습니다. | ||
GRU 계층은 시계열 및 시퀀스 데이터에서 시간 스텝 간의 종속성을 학습하는 RNN 계층입니다. | ||
투영 GRU 계층은 투영된 학습 가능 가중치를 사용하여 시계열 및 시퀀스 데이터에서 시간 스텝 간의 종속성을 학습하는 RNN 계층입니다. | ||
1차원 컨벌루션 계층은 1차원 입력값에 슬라이딩 컨벌루션 필터를 적용합니다. | ||
전치 1차원 컨벌루션 계층은 1차원 특징 맵을 업샘플링합니다. | ||
1차원 최댓값 풀링 계층은 입력값을 1차원 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 최댓값 계산을 수행합니다. | ||
1차원 평균값 풀링 계층은 입력값을 1차원 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 평균값 계산을 수행합니다. | ||
1차원 전역 최댓값 풀링 계층은 입력값의 시간 또는 공간 차원의 최댓값을 출력하여 다운샘플링을 수행합니다. | ||
평탄화 계층은 입력값의 공간 차원을 채널 차원으로 축소합니다. | ||
| 단어 임베딩 계층은 단어 인덱스를 벡터로 매핑합니다. | |
| 핍홀 LSTM 계층은 LSTM 계층의 변형으로, 게이트 계산은 계층 셀 상태를 사용합니다. |
활성화 계층
아이콘 | 계층 | 설명 |
---|---|---|
ReLU 계층은 입력값의 각 요소에 대해 0보다 작은 값은 모두 0으로 설정하는 임계값 연산을 수행합니다. | ||
Leaky ReLU 계층은 0보다 작은 모든 입력값에 고정된 스칼라를 곱하는 임계값 연산을 수행합니다. | ||
Clipped ReLU 계층은 0보다 작은 입력값은 모두 0으로 설정하고 자르기 상한(clipping ceiling)보다 큰 값은 모두 자르기 상한값으로 설정하는 임계값 연산을 수행합니다. | ||
ELU 활성화 계층은 양의 입력값에 항등 연산을 수행하고 음의 입력값에 비선형 지수 연산을 수행합니다. | ||
GELU(Gaussian Error Linear Unit) 계층은 가우스 분포의 확률에 따라 입력값에 가중치를 부여합니다. | ||
쌍곡탄젠트(tanh) 활성화 계층은 계층 입력값에 tanh 함수를 적용합니다. | ||
swish 활성화 계층은 계층 입력값에 swish 함수를 적용합니다. | ||
softplus 계층은 계층 입력값에 softplus 활성화 함수를 적용합니다. | ||
소프트맥스 계층은 입력값에 소프트맥스 함수를 적용합니다. | ||
시그모이드 계층은 출력값의 범위가 구간 (0,1)로 지정되도록 입력값에 시그모이드 함수를 적용합니다. | ||
complexReluLayer | 복소 ReLU 계층은 입력값의 실수부와 허수부에 대해 0보다 작은 값은 모두 0으로 설정하는 임계값 연산을 수행합니다. | |
함수 계층은 지정된 함수를 계층 입력값에 적용합니다. | ||
PReLU 계층은 각 채널마다 0보다 작은 모든 입력값에 훈련 시점에 학습한 스칼라를 곱하는 임계값 연산을 수행합니다. | ||
| SReLU 계층은 임계값 적용 연산을 수행하며 이때 계층은 각 채널에 대해 구간을 벗어난 값을 스케일링합니다. 구간 임계값과 스케일링 인자는 학습 가능한 파라미터입니다. | |
| mish 활성화 계층은 계층 입력값에 mish 함수를 적용합니다. |
정규화 계층
아이콘 | 계층 | 설명 |
---|---|---|
배치 정규화 계층은 각 채널에 대한 모든 관측값에서 데이터의 미니 배치를 독립적으로 정규화합니다. 컨벌루션 신경망의 훈련 속도를 높이고 신경망 초기화에 대한 민감도를 줄이려면 컨벌루션 계층과 비선형 계층(예: ReLU 계층) 사이에 배치 정규화 계층을 추가하십시오. | ||
그룹 정규화 계층은 각 관측값에 대해 그룹화된 채널 서브셋에서 데이터의 미니 배치를 독립적으로 정규화합니다. 컨벌루션 신경망의 훈련 속도를 높이고 신경망 초기화에 대한 민감도를 줄이려면 컨벌루션 계층과 비선형 계층(예: ReLU 계층) 사이에 그룹 정규화 계층을 사용하십시오. | ||
인스턴스 정규화 계층은 각 관측값에 대해 각 채널에서 데이터의 미니 배치를 독립적으로 정규화합니다. 컨벌루션 신경망의 훈련 수렴을 개선하고 신경망 하이퍼파라미터에 대한 민감도를 줄이려면 컨벌루션 계층과 비선형 계층(예: ReLU 계층) 사이에 인스턴스 정규화 계층을 사용하십시오. | ||
계층 정규화 계층은 각 관측값에 대해 모든 채널에서 데이터의 미니 배치를 독립적으로 정규화합니다. 순환 다층 퍼셉트론 신경망의 훈련 속도를 높이고 신경망 초기화에 대한 민감도를 줄이려면 학습 가능한 계층(예: LSTM 및 완전 연결 계층) 다음에 계층 정규화 계층을 사용하십시오. | ||
채널별 국소 응답(교차 채널) 정규화 계층은 채널별 정규화를 수행합니다. |
유틸리티 계층
아이콘 | 계층 | 설명 |
---|---|---|
![]() | 드롭아웃 계층은 주어진 확률에 따라 입력 요소를 무작위로 0으로 설정합니다. | |
공간 드롭아웃 계층은 주어진 확률에 따라 입력 채널을 무작위로 선택하고, 훈련하는 동안 모든 요소를 0으로 설정합니다. | ||
2차원 자르기 계층은 입력값에 2차원 자르기를 적용합니다. | ||
3차원 자르기 계층은 3차원 볼륨을 입력 특징 맵의 크기로 자릅니다. | ||
identityLayer | 항등 계층은 출력값이 해당 입력값과 동일한 계층입니다. 항등 계층을 사용하여 건너뛰기 연결(skip connection)을 만들 수 있으며, 이 연결은 입력값이 신경망 기본 분기에 있는 하나 이상의 계층을 건너뛰도록 합니다. 건너뛰기 연결에 대한 자세한 내용은 More About 항목을 참조하십시오. | |
신경망 계층에 중첩된 신경망이 포함되어 있습니다. 반복되는 컴포넌트가 포함된 대규모 신경망 구축을 단순화하려면 이 신경망 계층을 사용합니다. | ||
복소수-실수 계층은 지정된 차원의 데이터를 분할하여 복소수 값 데이터를 실수 값 데이터로 변환합니다. | ||
실수-복소수 계층은 지정된 차원의 데이터를 병합하여 실수 값 데이터를 복소수 값 데이터로 변환합니다. | ||
reshapeLayer | 형태 변경 계층은 데이터의 형태를 지정된 크기로 변경합니다. | |
permuteLayer | 치환 계층은 데이터 차원의 순서를 바꿉니다. | |
스케일링 계층은 입력 데이터를 선형적으로 스케일링하고 오프셋합니다. | ||
2차 계층은 입력 요소의 쌍별 곱(2차 단항식)을 계산합니다. | ||
| STFT 계층은 입력값의 단시간 푸리에 변환을 계산합니다. | |
| ISTFT 계층은 입력값의 단시간 푸리에 역변환을 계산합니다. | |
| CWT 계층은 입력값의 연속 웨이블릿 변환을 계산합니다. | |
| ICWT 계층은 입력값의 연속 웨이블릿 역변환을 계산합니다. | |
| MODWT 계층은 입력값의 MODWT(최대 중첩 이산 웨이블릿 변환)과 MODWT 다중분해능 분석(MRA)을 계산합니다. |
계층의 크기 조정하기
아이콘 | 계층 | 설명 |
---|---|---|
![]() | | 2차원 크기 조정 계층은 스케일링 인자를 사용해 2차원 입력값을 지정된 높이와 너비로 또는 기준 입력 특징 맵의 크기로 조정합니다. |
| 3차원 크기 조정 계층은 스케일링 인자를 사용해 3차원 입력값을 지정된 높이, 너비, 깊이로 또는 기준 입력 특징 맵의 크기로 조정합니다. | |
dlhdl.layer.reshapeLayer (Deep Learning HDL Toolbox) | 형태 변경 계층은 계층 활성화 데이터의 형태를 변경합니다. |
풀링 및 언풀링 계층
아이콘 | 계층 | 설명 |
---|---|---|
1차원 평균값 풀링 계층은 입력값을 1차원 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 평균값 계산을 수행합니다. | ||
2차원 평균값 풀링 계층은 입력값을 직사각형 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 평균값 계산을 수행합니다. | ||
3차원 평균값 풀링 계층은 3차원 입력값을 직육면체 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 평균값 계산을 수행합니다. | ||
2차원 적응형 평균값 풀링 계층은 입력값을 직사각형 풀링 영역으로 나누어 다운샘플링을 수행하여 원하는 출력값 크기를 제공한 다음 각 영역의 평균값 계산을 수행합니다. | ||
1차원 전역 평균값 풀링 계층은 입력값의 시간 또는 공간 차원의 평균을 출력하여 다운샘플링을 수행합니다. | ||
2차원 전역 평균값 풀링 계층은 입력값의 높이 및 너비 차원의 평균을 계산하여 다운샘플링을 수행합니다. | ||
3차원 전역 평균값 풀링 계층은 입력값의 높이, 너비, 깊이 차원의 평균을 계산하여 다운샘플링을 수행합니다. | ||
1차원 최댓값 풀링 계층은 입력값을 1차원 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 최댓값 계산을 수행합니다. | ||
2차원 최댓값 풀링 계층은 입력값을 직사각형 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 최댓값 계산을 수행합니다. | ||
3차원 최댓값 풀링 계층은 3차원 입력값을 직육면체 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 최댓값 계산을 수행합니다. | ||
1차원 전역 최댓값 풀링 계층은 입력값의 시간 또는 공간 차원의 최댓값을 출력하여 다운샘플링을 수행합니다. | ||
2차원 전역 최댓값 풀링 계층은 입력값의 높이 및 너비 차원의 최댓값을 계산하여 다운샘플링을 수행합니다. | ||
3차원 전역 최댓값 풀링 계층은 입력값의 높이, 너비, 깊이 차원의 최댓값을 계산하여 다운샘플링을 수행합니다. | ||
2차원 최댓값 언풀링 계층은 2차원 최댓값 풀링 계층의 출력값을 언풀링합니다. |
결합 계층
아이콘 | 계층 | 설명 |
---|---|---|
덧셈 계층은 여러 신경망 계층으로부터의 입력값을 요소별로 더합니다. | ||
곱셈 계층은 여러 신경망 계층으로부터의 입력값을 요소별로 곱합니다. | ||
심도 결합 계층은 동일한 높이와 너비를 갖는 입력값을 받아서 채널 차원을 따라 결합합니다. | ||
결합 계층은 입력값을 받아서 지정된 차원을 따라 결합합니다. 입력값은 결합 차원을 제외한 모든 차원에서 크기가 동일해야 합니다. | ||
| 가중 덧셈 계층은 여러 신경망 계층으로부터의 입력값을 요소별로 스케일링하고 더합니다. | |
| 분할 계층은 계층 출력값을 영상의 채널 차원을 따라 균등한 부분으로 나눕니다. |
트랜스포머 계층
아이콘 | 계층 | 설명 |
---|---|---|
셀프 어텐션 계층은 입력의 단일 헤드 또는 다중 헤드 셀프 어텐션을 계산합니다. | ||
내적 어텐션 계층은 가중 곱셈 연산을 사용하여 입력값의 일부에 집중하여 연산을 수행합니다. | ||
위치 임베딩 계층은 순차적 또는 공간 인덱스를 벡터로 매핑합니다. | ||
정현파 위치 인코딩 계층은 정현파 연산을 사용하여 위치 인덱스를 벡터로 매핑합니다. | ||
임베딩 결합 계층은 결합을 통해 입력값과 임베딩 벡터를 결합합니다. | ||
1차원 인덱싱 계층은 입력 데이터의 시간 또는 공간 차원의 지정된 인덱스에서 데이터를 추출합니다. | ||
| 패치 임베딩 계층은 픽셀의 패치를 벡터로 매핑합니다. |
신경망 ODE 계층
아이콘 | 계층 | 설명 |
---|---|---|
신경망 ODE 계층은 ODE의 해를 출력합니다. |
객체 검출 계층
아이콘 | 계층 | 설명 |
---|---|---|
| ROI 최댓값 풀링 계층은 입력 특징 맵에 있는 모든 직사각형 ROI에 대해 고정된 크기의 특징 맵을 출력합니다. Fast R-CNN 또는 Faster R-CNN 객체 검출 신경망을 만들려면 이 계층을 사용하십시오. | |
| ROI 정렬 계층은 입력 특징 맵에 있는 모든 직사각형 ROI에 대해 고정된 크기의 특징 맵을 출력합니다. Mask R-CNN 신경망을 만들려면 이 계층을 사용하십시오. | |
| SSD 병합 계층은 후속 회귀 및 분류 손실 계산을 위해 특징 맵의 출력값을 병합합니다. | |
| YOLO(You Only Look Once) 버전 2 신경망의 트랜스포머 계층은 신경망에서 마지막 컨벌루션 계층의 경계 상자 예측값을 변환하여 ground truth 경계 내에 있게 합니다. YOLO v2 신경망의 안정성을 향상하려면 트랜스포머 계층을 사용하십시오. | |
| space-to-depth 계층은 입력값의 공간 블록을 깊이 차원으로 치환합니다. 특징 데이터를 버리지 않으면서 서로 다른 크기의 특징 맵을 결합해야 하는 경우 이 계층을 사용하십시오. | |
| 2차원의 depth-to-space 계층은 깊이 차원의 데이터를 2차원 공간 데이터의 블록으로 치환합니다. | |
| 슬라이스 계층은 계층에 대한 입력값을 영상의 채널 차원을 따라 동일한 수의 그룹으로 나눕니다. |
참고 항목
trainnet
| trainingOptions
| dlnetwork
| 심층 신경망 디자이너