이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
bert
설명
BERT(Bidirectional Encoder Representations from Transformer) 모델은 문서 분류 및 감성 분석 등의 자연어 처리 작업을 위해 미세 조정(파인 튜닝)이 가능한 트랜스포머 신경망입니다. 이 신경망은 어텐션 계층을 사용하여 문맥 내의 텍스트를 분석하고 단어 간의 장거리 종속성(long-range dependency)을 캡처합니다.
[
는 사전 훈련된 BERT-Base 모델과 그에 대응하는 토큰 추출기를 반환합니다.net
,tokenizer
] = bert
팁
문서 분류 워크플로의 경우, trainBERTDocumentClassifier
함수와 함께 bertDocumentClassifier
객체를 사용하십시오.
[
는 하나 이상의 이름-값 인수를 사용하여 옵션을 추가로 지정합니다.net
,tokenizer
] = bert(Name=Value
)
예제
입력 인수
출력 인수
참고 문헌
[1] Devlin, Jacob, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. "BERT: Pre-Training of Deep Bidirectional Transformers for Language Understanding" Preprint, submitted May 24, 2019. https://doi.org/10.48550/arXiv.1810.04805.
[2] Srivastava, Nitish, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. "Dropout: A Simple Way to Prevent Neural Networks from Overfitting." The Journal of Machine Learning Research 15, no. 1 (January 1, 2014): 1929–58
[3] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. "ImageNet Classification with Deep Convolutional Neural Networks." Communications of the ACM 60, no. 6 (May 24, 2017): 84–90. https://doi.org/10.1145/3065386
버전 내역
R2023b에 개발됨
참고 항목
bertDocumentClassifier
| trainBERTDocumentClassifier
| dlnetwork
(Deep Learning Toolbox) | bertTokenizer
도움말 항목
- BERT 문서 분류기 훈련시키기
- 딥러닝을 사용하여 텍스트 데이터 분류하기
- 분류를 위한 간단한 텍스트 모델 만들기
- 토픽 모델을 사용하여 텍스트 데이터 분석하기
- 다단어 구문을 사용하여 텍스트 데이터 분석하기
- 딥러닝을 사용한 시퀀스 분류 (Deep Learning Toolbox)
- MATLAB의 딥러닝 (Deep Learning Toolbox)