wordEmbeddingLayer
딥러닝 신경망의 단어 임베딩 계층
설명
단어 임베딩 계층은 단어 인덱스를 벡터로 매핑합니다.
딥러닝 LSTM(장단기 기억) 신경망에 단어 임베딩 계층을 사용할 수 있습니다. LSTM 신경망은 시퀀스 데이터의 시간 스텝 간의 장기적인 종속성을 학습할 수 있는 순환 신경망(RNN)의 일종입니다. 단어 임베딩 계층은 단어 인덱스 시퀀스를 임베딩 벡터에 매핑하고 훈련 중에 단어 임베딩을 학습합니다.
이 계층을 사용하려면 Deep Learning Toolbox™가 필요합니다.
생성
구문
설명
는 단어 임베딩 계층을 만들고 임베딩 차원과 단어집 크기를 지정합니다.layer = wordEmbeddingLayer(dimension,numWords)
는 하나 이상의 이름-값 쌍을 사용하여 속성(선택 사항)을 설정합니다. 각 속성 이름을 작은따옴표로 묶습니다.layer = wordEmbeddingLayer(dimension,numWords,PropertyName=Value)
속성
예제
참고 문헌
[1] Glorot, Xavier, and Yoshua Bengio. "Understanding the Difficulty of Training Deep Feedforward Neural Networks." In Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, 249–356. Sardinia, Italy: AISTATS, 2010. https://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf
[2] He, Kaiming, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification." In 2015 IEEE International Conference on Computer Vision (ICCV), 1026–34. Santiago, Chile: IEEE, 2015. https://doi.org/10.1109/ICCV.2015.123
[3] Saxe, Andrew M., James L. McClelland, and Surya Ganguli. "Exact Solutions to the Nonlinear Dynamics of Learning in Deep Linear Neural Networks.” Preprint, submitted February 19, 2014. https://arxiv.org/abs/1312.6120.
확장 기능
버전 내역
R2018b에 개발됨참고 항목
trainNetwork (Deep Learning Toolbox) | doc2sequence | trainWordEmbedding | wordEncoding | lstmLayer (Deep Learning Toolbox) | sequenceInputLayer (Deep Learning Toolbox) | fastTextWordEmbedding | tokenizedDocument | word2vec
도움말 항목
- 감성 분류기 훈련시키기
- 딥러닝을 사용하여 텍스트 데이터 분류하기
- 텍스트 산점도 플롯을 사용하여 단어 임베딩 시각화하기
- 분석할 텍스트 데이터 준비하기
- MATLAB의 딥러닝 (Deep Learning Toolbox)
- 딥러닝 계층 목록 (Deep Learning Toolbox)