이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
wordEmbeddingLayer
딥러닝 신경망의 단어 임베딩 계층
설명
단어 임베딩 계층은 단어 인덱스를 벡터로 매핑합니다.
딥러닝 LSTM(장단기 기억) 신경망에 단어 임베딩 계층을 사용할 수 있습니다. LSTM 신경망은 시퀀스 데이터의 시간 스텝 간의 장기적인 종속성을 학습할 수 있는 순환 신경망(RNN)의 일종입니다. 단어 임베딩 계층은 단어 인덱스 시퀀스를 임베딩 벡터에 매핑하고 훈련 중에 단어 임베딩을 학습합니다.
이 계층을 사용하려면 Deep Learning Toolbox™가 필요합니다.
생성
구문
설명
는 단어 임베딩 계층을 만들고 임베딩 차원과 단어집 크기를 지정합니다.layer
= wordEmbeddingLayer(dimension
,numWords
)
는 하나 이상의 이름-값 쌍을 사용하여 속성(선택 사항)을 설정합니다. 각 속성 이름을 작은따옴표로 묶습니다.layer
= wordEmbeddingLayer(dimension
,numWords
,PropertyName=Value
)
속성
예제
참고 문헌
[1] Glorot, Xavier, and Yoshua Bengio. "Understanding the Difficulty of Training Deep Feedforward Neural Networks." In Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, 249–356. Sardinia, Italy: AISTATS, 2010. https://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf
[2] He, Kaiming, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification." In 2015 IEEE International Conference on Computer Vision (ICCV), 1026–34. Santiago, Chile: IEEE, 2015. https://doi.org/10.1109/ICCV.2015.123
[3] Saxe, Andrew M., James L. McClelland, and Surya Ganguli. "Exact Solutions to the Nonlinear Dynamics of Learning in Deep Linear Neural Networks.” Preprint, submitted February 19, 2014. https://arxiv.org/abs/1312.6120.
확장 기능
버전 내역
R2018b에 개발됨참고 항목
trainNetwork
(Deep Learning Toolbox) | doc2sequence
| trainWordEmbedding
| wordEncoding
| lstmLayer
(Deep Learning Toolbox) | sequenceInputLayer
(Deep Learning Toolbox) | fastTextWordEmbedding
| tokenizedDocument
| word2vec
도움말 항목
- 감성 분류기 훈련시키기
- 딥러닝을 사용하여 텍스트 데이터 분류하기
- 텍스트 산점도 플롯을 사용하여 단어 임베딩 시각화하기
- 분석할 텍스트 데이터 준비하기
- MATLAB의 딥러닝 (Deep Learning Toolbox)
- 딥러닝 계층 목록 (Deep Learning Toolbox)