이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
wordEmbeddingLayer
설명
단어 임베딩 계층은 단어 인덱스를 벡터로 매핑합니다.
딥러닝 LSTM(장단기 기억) 신경망에 단어 임베딩 계층을 사용할 수 있습니다. LSTM 신경망은 시퀀스 데이터의 시간 스텝 간의 장기적인 종속성을 학습할 수 있는 순환 신경망(RNN)의 일종입니다. 단어 임베딩 계층은 단어 인덱스 시퀀스를 임베딩 벡터에 매핑하고 훈련 중에 단어 임베딩을 학습합니다.
이 계층을 사용하려면 Deep Learning Toolbox™가 필요합니다.
생성
구문
속성
예제
참고 문헌
[1] Glorot, Xavier, and Yoshua Bengio. "Understanding the Difficulty of Training Deep Feedforward Neural Networks." In Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, 249–356. Sardinia, Italy: AISTATS, 2010.
[2] He, Kaiming, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification." In Proceedings of the 2015 IEEE International Conference on Computer Vision, 1026–1034. Washington, DC: IEEE Computer Vision Society, 2015.
[3] Saxe, Andrew M., James L. McClelland, and Surya Ganguli. "Exact solutions to the nonlinear dynamics of learning in deep linear neural networks." arXiv preprint arXiv:1312.6120 (2013).
확장 기능
버전 내역
R2018b에 개발됨
참고 항목
trainNetwork
(Deep Learning Toolbox) | doc2sequence
| trainWordEmbedding
| wordEncoding
| lstmLayer
(Deep Learning Toolbox) | sequenceInputLayer
(Deep Learning Toolbox) | fastTextWordEmbedding
| tokenizedDocument
| word2vec
도움말 항목
- 감성 분류기 훈련시키기
- 딥러닝을 사용하여 텍스트 데이터 분류하기
- 텍스트 산점도 플롯을 사용하여 단어 임베딩 시각화하기
- 분석할 텍스트 데이터 준비하기
- MATLAB의 딥러닝 (Deep Learning Toolbox)
- 딥러닝 계층 목록 (Deep Learning Toolbox)