딥러닝 계층 목록
이 페이지에는 MATLAB®에서 제공하는 딥러닝 계층의 목록이 정리되어 있습니다.
다양한 작업을 위해 계층에서 신경망을 만드는 방법을 알아보려면 다음 예제를 참조하십시오.
작업 | 자세히 알아보기 |
---|---|
영상 분류 또는 회귀를 위한 딥러닝 신경망 만들기. | |
시퀀스 및 시계열 데이터를 위한 딥러닝 신경망 만들기 | |
오디오 데이터를 위한 딥러닝 신경망 만들기. | 딥러닝을 사용해 음성 명령 인식 모델 훈련시키기 |
텍스트 데이터를 위한 딥러닝 신경망 만들기. |
딥러닝 계층
다음 함수를 사용하여 다양한 계층 유형을 만들 수 있습니다. 또는 심층 신경망 디자이너 앱을 사용하여 대화형 방식으로 신경망을 만들 수 있습니다.
사용자 지정 계층을 정의하는 방법은 사용자 지정 딥러닝 계층 정의하기 항목을 참조하십시오.
입력 계층
계층 | 설명 |
---|---|
영상 입력 계층은 신경망에 2차원 영상을 입력하고 데이터 정규화를 적용합니다. | |
3차원 영상 입력 계층은 신경망에 3차원 영상 또는 3차원 볼륨을 입력하고 데이터 정규화를 적용합니다. | |
| 포인트 클라우드 입력 계층은 신경망에 3차원 포인트 클라우드를 입력하고 데이터 정규화를 적용합니다. 뿐만 아니라 2차원 라이다 스캔과 같은 포인트 클라우드 데이터를 입력할 수도 있습니다. |
시퀀스 입력 계층은 신경망에 시퀀스 데이터를 입력합니다. | |
특징 입력 계층은 신경망에 특징 데이터를 입력하고 데이터 정규화를 적용합니다. 특징을 나타내는, 숫자형 스칼라로 구성된 데이터 세트(공간 차원 또는 시간 차원이 없는 데이터)가 있는 경우 이 계층을 사용하십시오. | |
| ROI 입력 계층은 Fast R-CNN 객체 검출 신경망에 영상을 입력합니다. |
컨벌루션 계층과 완전 연결 계층
계층 | 설명 |
---|---|
1차원 컨벌루션 계층은 1차원 입력값에 슬라이딩 컨벌루션 필터를 적용합니다. | |
2차원 컨벌루션 계층은 2차원 입력값에 슬라이딩 컨벌루션 필터를 적용합니다. | |
3차원 컨벌루션 계층은 3차원 입력값에 슬라이딩 직육면체 컨벌루션 필터를 적용합니다. | |
2차원 그룹 컨벌루션 계층은 입력 채널을 여러 그룹으로 분리해서 슬라이딩 컨벌루션 필터를 적용합니다. 그룹 컨벌루션 계층은 채널별로 분리 가능한(심도별로 분리 가능하다고 하기도 함) 컨벌루션에 사용하십시오. | |
전치 2차원 컨벌루션 계층은 2차원 특징 맵을 업샘플링합니다. | |
전치 3차원 컨벌루션 계층은 3차원 특징 맵을 업샘플링합니다. | |
완전 연결 계층은 입력값에 가중치 행렬을 곱한 다음 편향 벡터를 더합니다. |
시퀀스 계층
계층 | 설명 |
---|---|
시퀀스 입력 계층은 신경망에 시퀀스 데이터를 입력합니다. | |
LSTM 계층은 시계열 및 시퀀스 데이터에서 시간 스텝 간의 장기 종속성을 학습하는 RNN 계층입니다. | |
투영 LSTM 계층은 투영된 학습 가능 가중치를 사용하여 시계열 및 시퀀스 데이터에서 시간 스텝 간의 장기 종속성을 학습하는 RNN 계층입니다. | |
BiLSTM(양방향 장단기 기억) 계층은 시계열 또는 시퀀스 데이터의 시간 스텝 간의 양방향 장기 종속성을 학습하는 RNN 계층입니다. 이러한 종속성은 RNN이 각 시간 스텝에서 전체 시계열로부터 학습하도록 하려는 경우에 유용할 수 있습니다. | |
GRU 계층은 시계열 및 시퀀스 데이터에서 시간 스텝 간의 종속성을 학습하는 RNN 계층입니다. | |
1차원 컨벌루션 계층은 1차원 입력값에 슬라이딩 컨벌루션 필터를 적용합니다. | |
전치 1차원 컨벌루션 계층은 1차원 특징 맵을 업샘플링합니다. | |
1차원 최댓값 풀링 계층은 입력값을 1차원 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 최댓값 계산을 수행합니다. | |
1차원 평균값 풀링 계층은 입력값을 1차원 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 평균값 계산을 수행합니다. | |
1차원 전역 최댓값 풀링 계층은 입력값의 시간 또는 공간 차원의 최댓값을 출력하여 다운샘플링을 수행합니다. | |
시퀀스 접기 계층은 영상 시퀀스 배치를 영상 배치로 변환합니다. 영상 시퀀스의 시간 스텝에 대해 독립적으로 컨벌루션 연산을 수행하려는 경우 시퀀스 접기 계층을 사용하십시오. | |
시퀀스 펼치기 계층은 시퀀스 접기 후에 입력 데이터의 시퀀스 구조를 복원합니다. | |
평탄화 계층은 입력값의 공간 차원을 채널 차원으로 축소합니다. | |
셀프 어텐션 계층은 입력의 단일 헤드 또는 다중 헤드 셀프 어텐션을 계산합니다. | |
| 단어 임베딩 계층은 단어 인덱스를 벡터로 매핑합니다. |
| 핍홀 LSTM 계층은 LSTM 계층의 변형으로, 게이트 계산은 계층 셀 상태를 사용합니다. |
활성화 계층
계층 | 설명 |
---|---|
ReLU 계층은 입력값의 각 요소에 대해 0보다 작은 값은 모두 0으로 설정하는 임계값 연산을 수행합니다. | |
Leaky ReLU 계층은 0보다 작은 모든 입력값에 고정된 스칼라를 곱하는 임계값 연산을 수행합니다. | |
Clipped ReLU 계층은 0보다 작은 입력값은 모두 0으로 설정하고 자르기 상한(clipping ceiling)보다 큰 값은 모두 자르기 상한값으로 설정하는 임계값 연산을 수행합니다. | |
ELU 활성화 계층은 양의 입력값에 항등 연산을 수행하고 음의 입력값에 비선형 지수 연산을 수행합니다. | |
GELU(Gaussian Error Linear Unit) 계층은 가우스 분포의 확률에 따라 입력값에 가중치를 부여합니다. | |
쌍곡탄젠트(tanh) 활성화 계층은 계층 입력값에 tanh 함수를 적용합니다. | |
swish 활성화 계층은 계층 입력값에 swish 함수를 적용합니다. | |
| 소프트플러스 계층에는 소프트플러스 활성화 함수 Y = log(1 + eX)가 적용되며, 출력값은 항상 양수입니다. 활성화 함수는 reluLayer 의 매끄러운 연속 버전입니다. 이 계층을 강화 학습 에이전트의 액터를 위해 정의한 심층 신경망에 통합할 수 있습니다. 이 계층은 표준편차 출력이 양수여야 하는 연속 가우스 정책 심층 신경망을 만드는 데 유용합니다. |
함수 계층은 지정된 함수를 계층 입력값에 적용합니다. | |
| PReLU 계층은 각 채널마다 0보다 작은 모든 입력값에 훈련 시점에 학습한 스칼라를 곱하는 임계값 연산을 수행합니다. |
정규화 계층
계층 | 설명 |
---|---|
배치 정규화 계층은 각 채널에 대한 모든 관측값에서 데이터의 미니 배치를 독립적으로 정규화합니다. 컨벌루션 신경망의 훈련 속도를 높이고 신경망 초기화에 대한 민감도를 줄이려면 컨벌루션 계층과 비선형 계층(예: ReLU 계층) 사이에 배치 정규화 계층을 추가하십시오. | |
그룹 정규화 계층은 각 관측값에 대해 그룹화된 채널 서브셋에서 데이터의 미니 배치를 독립적으로 정규화합니다. 컨벌루션 신경망의 훈련 속도를 높이고 신경망 초기화에 대한 민감도를 줄이려면 컨벌루션 계층과 비선형 계층(예: ReLU 계층) 사이에 그룹 정규화 계층을 사용하십시오. | |
인스턴스 정규화 계층은 각 관측값에 대해 각 채널에서 데이터의 미니 배치를 독립적으로 정규화합니다. 컨벌루션 신경망의 훈련 수렴을 개선하고 신경망 하이퍼파라미터에 대한 민감도를 줄이려면 컨벌루션 계층과 비선형 계층(예: ReLU 계층) 사이에 인스턴스 정규화 계층을 사용하십시오. | |
계층 정규화 계층은 각 관측값에 대해 모든 채널에서 데이터의 미니 배치를 독립적으로 정규화합니다. 순환 다층 퍼셉트론 신경망의 훈련 속도를 높이고 신경망 초기화에 대한 민감도를 줄이려면 학습 가능한 계층(예: LSTM 및 완전 연결 계층) 다음에 계층 정규화 계층을 사용하십시오. | |
채널별 국소 응답(교차 채널) 정규화 계층은 채널별 정규화를 수행합니다. |
유틸리티 계층
계층 | 설명 |
---|---|
드롭아웃 계층은 주어진 확률에 따라 입력 요소를 무작위로 0으로 설정합니다. | |
2차원 자르기 계층은 입력값에 2차원 자르기를 적용합니다. | |
3차원 자르기 계층은 3차원 볼륨을 입력 특징 맵의 크기로 자릅니다. | |
| 스케일링 계층은 입력 배열 U 를 선형적으로 스케일링하고 편향을 갖게 하여 출력값 Y = Scale.*U + Bias 를 내보냅니다. 이 계층을 강화 학습 에이전트의 액터 또는 크리틱을 위해 정의한 심층 신경망에 통합할 수 있습니다. 이 계층은 비선형 계층(예: tanhLayer , 시그모이드)의 출력값을 스케일링하고 시프트하는 데 유용합니다. |
| 2차 계층은 입력 벡터를 받고 입력 요소에서 생성된 2차 단항식으로 구성된 벡터를 출력합니다. 이 계층은 출력이 입력값의 2차 함수 형태인 계층이 필요할 때 유용합니다. LQR 제어기 설계에 사용된 것과 같은 2차 값 함수의 구조체를 다시 생성하는 경우를 예로 들 수 있습니다. |
| STFT 계층은 입력값의 단시간 푸리에 변환을 계산합니다. |
| CWT 계층은 입력값의 CWT를 계산합니다. |
| MODWT 계층은 입력값의 MODWT와 MODWT 다중분해능 분석(MRA)을 계산합니다. |
계층의 크기 조정하기
계층 | 설명 |
---|---|
| 2차원 크기 조정 계층은 스케일링 인자를 사용해 2차원 입력값을 지정된 높이와 너비로 또는 기준 입력 특징 맵의 크기로 조정합니다. |
| 3차원 크기 조정 계층은 스케일링 인자를 사용해 3차원 입력값을 지정된 높이, 너비, 깊이로 또는 기준 입력 특징 맵의 크기로 조정합니다. |
풀링 및 언풀링 계층
계층 | 설명 |
---|---|
1차원 평균값 풀링 계층은 입력값을 1차원 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 평균값 계산을 수행합니다. | |
2차원 평균값 풀링 계층은 입력값을 직사각형 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 평균값 계산을 수행합니다. | |
3차원 평균값 풀링 계층은 3차원 입력값을 직육면체 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 평균값 계산을 수행합니다. | |
1차원 전역 평균값 풀링 계층은 입력값의 시간 또는 공간 차원의 평균을 출력하여 다운샘플링을 수행합니다. | |
2차원 전역 평균값 풀링 계층은 입력값의 높이 및 너비 차원의 평균을 계산하여 다운샘플링을 수행합니다. | |
3차원 전역 평균값 풀링 계층은 입력값의 높이, 너비, 깊이 차원의 평균을 계산하여 다운샘플링을 수행합니다. | |
1차원 최댓값 풀링 계층은 입력값을 1차원 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 최댓값 계산을 수행합니다. | |
2차원 최댓값 풀링 계층은 입력값을 직사각형 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 최댓값 계산을 수행합니다. | |
3차원 최댓값 풀링 계층은 3차원 입력값을 직육면체 풀링 영역으로 나누어 다운샘플링을 수행한 다음 각 영역의 최댓값 계산을 수행합니다. | |
1차원 전역 최댓값 풀링 계층은 입력값의 시간 또는 공간 차원의 최댓값을 출력하여 다운샘플링을 수행합니다. | |
2차원 전역 최댓값 풀링 계층은 입력값의 높이 및 너비 차원의 최댓값을 계산하여 다운샘플링을 수행합니다. | |
3차원 전역 최댓값 풀링 계층은 입력값의 높이, 너비, 깊이 차원의 최댓값을 계산하여 다운샘플링을 수행합니다. | |
2차원 최댓값 언풀링 계층은 2차원 최댓값 풀링 계층의 출력값을 언풀링합니다. |
결합 계층
계층 | 설명 |
---|---|
덧셈 계층은 여러 신경망 계층으로부터의 입력값을 요소별로 더합니다. | |
곱셈 계층은 여러 신경망 계층으로부터의 입력값을 요소별로 곱합니다. | |
심도 결합 계층은 동일한 높이와 너비를 갖는 입력값을 받아서 채널 차원을 따라 결합합니다. | |
결합 계층은 입력값을 받아서 지정된 차원을 따라 결합합니다. 입력값은 결합 차원을 제외한 모든 차원에서 크기가 동일해야 합니다. | |
| 가중 덧셈 계층은 여러 신경망 계층으로부터의 입력값을 요소별로 스케일링하고 더합니다. |
객체 검출 계층
계층 | 설명 |
---|---|
| ROI 입력 계층은 Fast R-CNN 객체 검출 신경망에 영상을 입력합니다. |
| ROI 최댓값 풀링 계층은 입력 특징 맵에 있는 모든 직사각형 ROI에 대해 고정된 크기의 특징 맵을 출력합니다. Fast R-CNN 또는 Faster R-CNN 객체 검출 신경망을 만들려면 이 계층을 사용하십시오. |
| ROI 정렬 계층은 입력 특징 맵에 있는 모든 직사각형 ROI에 대해 고정된 크기의 특징 맵을 출력합니다. Mask R-CNN 신경망을 만들려면 이 계층을 사용하십시오. |
| 앵커 상자 계층은 객체 검출 신경망에서 사용되는 특징 맵의 앵커 상자를 저장합니다. |
| 영역 제안 계층은 Faster R-CNN의 영역 제안 신경망(RPN)에 속하며, 영상에서 사물일 가능성이 있는 부분을 둘러싸는 경계 상자를 출력합니다. |
| SSD 병합 계층은 후속 회귀 및 분류 손실 계산을 위해 특징 맵의 출력값을 병합합니다. |
![]() yolov2TransformLayer (Computer Vision Toolbox) | YOLO(You Only Look Once) 버전 2 신경망의 변환 계층은 신경망에서 마지막 컨벌루션 계층의 경계 상자 예측값을 변환하여 실측 경계 내에 있게 합니다. YOLO v2 신경망의 안정성을 향상하려면 변환 계층을 사용하십시오. |
| space-to-depth 계층은 입력값의 공간 블록을 깊이 차원으로 치환합니다. 특징 데이터를 버리지 않으면서 서로 다른 크기의 특징 맵을 결합해야 하는 경우 이 계층을 사용하십시오. |
| 2차원의 depth-to-space 계층은 깊이 차원의 데이터를 2차원 공간 데이터의 블록으로 치환합니다. |
| 영역 제안 신경망(RPN) 소프트맥스 계층은 입력값에 소프트맥스 활성화 함수를 적용합니다. Faster R-CNN 객체 검출 신경망을 만들려면 이 계층을 사용하십시오. |
| 중점 손실 계층은 중점 손실(focal loss)을 사용하여 객체 클래스를 예측합니다. |
| 영역 제안 신경망(RPN) 분류 계층은 교차 엔트로피 손실 함수를 사용하여 영상 영역을 사물 또는 배경으로 분류합니다. Faster R-CNN 객체 검출 신경망을 만들려면 이 계층을 사용하십시오. |
| 상자 회귀 계층은 smooth-L1 손실 함수를 사용하여 경계 상자 위치를 미세 조정합니다. Fast R-CNN 또는 Faster R-CNN 객체 검출 신경망을 만들려면 이 계층을 사용하십시오. |
출력 계층
계층 | 설명 |
---|---|
소프트맥스 계층은 입력값에 소프트맥스 함수를 적용합니다. | |
시그모이드 계층은 출력값의 범위가 구간 (0,1)로 지정되도록 입력값에 시그모이드 함수를 적용합니다. | |
분류 계층은 상호 배타적인 클래스로의 분류 및 가중 분류 작업에서 교차 엔트로피 손실을 계산합니다. | |
회귀 계층은 회귀 작업의 손실을 평균 제곱 오차의 절반을 취한 값으로 계산합니다. | |
| 픽셀 분류 계층은 각 영상 픽셀 또는 복셀에 categorical형 레이블을 제공합니다. |
| 다이스 픽셀 분류 계층은 일반화된 다이스 손실을 사용하여 각 영상 픽셀 또는 복셀에 categorical형 레이블을 제공합니다. |
| 중점 손실 계층은 중점 손실(focal loss)을 사용하여 객체 클래스를 예측합니다. |
| 영역 제안 신경망(RPN) 소프트맥스 계층은 입력값에 소프트맥스 활성화 함수를 적용합니다. Faster R-CNN 객체 검출 신경망을 만들려면 이 계층을 사용하십시오. |
| 영역 제안 신경망(RPN) 분류 계층은 교차 엔트로피 손실 함수를 사용하여 영상 영역을 사물 또는 배경으로 분류합니다. Faster R-CNN 객체 검출 신경망을 만들려면 이 계층을 사용하십시오. |
| 상자 회귀 계층은 smooth-L1 손실 함수를 사용하여 경계 상자 위치를 미세 조정합니다. Fast R-CNN 또는 Faster R-CNN 객체 검출 신경망을 만들려면 이 계층을 사용하십시오. |
| YOLO(You Only Look Once v2) 버전 2 신경망의 출력 계층은 예측된 위치와 실측 간의 평균 제곱 오차 손실을 최소화하여 경계 상자 위치를 미세하게 조정합니다. |
| Tversky 픽셀 분류 계층은 Tversky 손실을 사용하여 각 영상 픽셀 또는 복셀에 categorical형 레이블을 제공합니다. |
| 분류 SSE 계층은 분류 문제의 손실을 오차 제곱합으로 계산합니다. |
| 회귀 MAE 계층은 회귀 문제에서 평균 절대 오차 손실을 계산합니다. |
참고 항목
trainingOptions
| trainNetwork
| 심층 신경망 디자이너