자연어 처리의 작동 원리
자연어 처리의 목표는 컴퓨터로 하여금 음성 및 텍스트 데이터를 해석하고, 대규모 데이터셋에서 복잡한 관계를 발견하고 시각화하며, 새로운 언어 데이터를 생성할 수 있도록 비정형 언어 데이터를 정형 형식으로 변환하는 것입니다.
인간 언어의 원시 데이터는 오디오 신호, 웹 및 소셜 미디어, 문서, 데이터베이스 등 다양한 출처에서 올 수 있습니다. 이러한 데이터에는 음성 명령, 특정 주제에 대한 여론, 운영 데이터, 유지관리 보고서와 같은 귀중한 정보가 포함되어 있습니다. 자연어 처리는 이러한 대규모 데이터 소스를 결합하고 단순화하여 시각화 및 토픽 모델을 통해 유의미한 정보로 변환할 수 있습니다.
음성 데이터에 대해 자연어 처리를 수행하려면 오디오 세그먼트에서 사람의 음성이 있는지 감지하고, 음성-텍스트 전사를 수행한 후 도출된 텍스트에 텍스트 마이닝 및 머신러닝 기법을 적용해야 합니다.
자연어 처리를 위한 데이터 준비
자연어 처리에서는 텍스트를 비정형 형식에서 정형 형식으로 변환하기 위해 다음과 같은 기법을 사용합니다.
토큰화: 통상적으로 이는 자연어 처리를 위한 텍스트 처리의 첫 번째 단계입니다. 토큰화란 텍스트를 문장 또는 단어로 분할하는 것을 의미합니다.
어간 추출: 이 텍스트 정규화 기법은 단어의 접사를 제거하여 단어를 원형으로 줄입니다. 어간 추출에서는 단순한 발견적 규칙을 사용하며 이로 인해 유효하지 않은 사전 단어가 생성될 수 있습니다.
표제어 추출: 이 정교한 텍스트 정규화 기법은 어휘 및 형태소 분석을 사용하여 단어의 접사를 제거합니다. 예를 들어, “building has floors”는 “build have floor”로 줄어들게 됩니다.
Word2vec: 단어 임베딩 기법 중 가장 널리 사용되는 구현은 Word2vec입니다. 이 기법은 단어의 분산 표현을 숫자형 벡터로 생성하여 단어의 의미 체계와 단어 간의 관계를 포착합니다.
N-gram 모델링: N-gram은 텍스트 문서 내 n개의 연속적인 항목의 모음으로, 이런 항목은 단어, 숫자, 기호 및 구두점 등을 포함할 수 있습니다. N-gram 모델은 감성 분석, 텍스트 분류, 텍스트 생성 등 단어의 순서가 중요한 자연어 처리 응용 사례에서 유용할 수 있습니다.
AI를 사용한 자연어 처리
언어 데이터로 훈련된 AI 모델은 패턴을 인식하고 문장에서 후속 문자나 단어를 예측할 수 있습니다. 자연어 처리 모델을 구축하기 위해서는 로지스틱 회귀나 결정 트리 등의 고전적인 머신러닝 알고리즘을 사용하거나 CNN(컨벌루션 신경망), RNN(순환 신경망), 오토인코더 등의 딥러닝 아키텍처를 사용할 수 있습니다. 예를 들어, CNN을 사용하여 텍스트를 분류하고 RNN을 사용하여 문자 시퀀스를 생성할 수 있습니다.
트랜스포머 모델(딥러닝 모델의 일종)은 자연어 처리에 혁신을 가져왔으며, BERT 및 ChatGPT™와 같은 LLM(대규모 언어 모델)의 기반이 됩니다. 트랜스포머는 순차 데이터에서 관계를 추적하도록 설계되었습니다. 입력과 출력 사이의 전역 종속성을 수집하기 위해 셀프 어텐션 메커니즘을 활용합니다.
이를 통해 LLM은 자연어 처리의 맥락에서 장기 종속성, 단어 간의 복잡한 관계 및 자연어에 존재하는 뉘앙스를 포착할 수 있습니다. LLM은 모든 단어를 병렬로 처리할 수 있으므로, 훈련 및 추론이 가속화됩니다.
다른 사전 훈련된 딥러닝 모델과 마찬가지로, 사전 훈련된 LLM을 사용하여 전이 학습을 수행하면 자연어 처리의 특정 문제를 해결할 수 있습니다. 예로 일본어 텍스트의 BERT 모델을 미세 조정할 수 있습니다.
예제를 통해 자연어 처리 시작하기
자연어 처리가 중요한 이유
자연어 처리는 컴퓨터로 하여금 인간의 언어를 이해하고 생성하도록 가르칩니다. 응용 분야는 방대하며, AI 기술이 발전함에 따라 일상적인 작업부터 고급 엔지니어링 워크플로에 이르기까지 자연어 처리의 사용 범위는 더욱 확대될 것입니다.
자연어 처리에서 일반적인 작업은 음성 인식, 화자 인식, 음성 향상, 개체명 인식입니다. 자연어 처리의 하위 개념인 NLU(자연어 이해)에서는 음성과 텍스트의 구문 및 의미 분석을 사용하여 문장의 의미를 추출할 수 있습니다. NLU 작업에는 문서 분류와 감성 분석 등이 있습니다.
자연어 처리의 또 다른 하위 영역인 NLG(자연어 생성)에서는 주어진 데이터 입력에 대해 컴퓨터가 텍스트 응답을 생성하기 위해 사용하는 방법을 포괄합니다. NLG는 템플릿 기반 텍스트 생성으로 시작되었지만, AI 기법을 통해 실시간으로 동적 텍스트를 생성하는 것이 가능해졌습니다. NLG 작업에는 텍스트 요약과 기계 번역이 있습니다.
자연어 처리는 금융, 제조, 전자, 소프트웨어, 정보기술 및 기타 산업 분야의 다음과 같은 응용 사례에서 사용됩니다.
- 긍정 또는 부정의 감성에 따른 리뷰 분류 자동화
- 문서에서 단어 또는 구문의 빈도 계수 및 토픽 모델링 수행
- 음성 녹음의 레이블 및 태그 지정 자동화
- 센서 및 텍스트 로그 데이터를 기반으로 예측 정비 일정 개발
- 요구사항 정형화 및 규정 준수 검사 자동화
MATLAB을 사용한 자연어 처리 적용
MATLAB을 사용한 자연어 처리
MATLAB을 통해 데이터 준비부터 배포에 이르는 자연어 처리 파이프라인을 구축할 수 있습니다. Deep Learning Toolbox™ 또는 Statistics and Machine Learning Toolbox™를 Text Analytics Toolbox™와 함께 사용하여 텍스트 데이터에 대해 자연어 처리를 수행할 수 있습니다. 또한 Audio Toolbox™를 사용하여 음성 데이터에 대해 자연어 처리를 수행할 수도 있습니다.
데이터 준비
로우코드 앱을 사용하여 자연어 처리를 위해 음성 데이터의 전처리를 수행할 수 있습니다. 신호 분석기 앱을 사용하여 데이터를 탐색하고 분석할 수 있으며, 신호 레이블 지정기 앱을 사용하여 ground truth에 자동으로 레이블을 지정합니다. 오디오 특징 추출 라이브 작업을 사용하여 영역 특정 특징을 추출하고 시간-주파수 변환을 수행할 수 있습니다. 그런 다음 speech2text 함수를 사용하여 음성을 텍스트로 전사할 수 있습니다.
자연어 처리를 적용하기 위한 텍스트 데이터가 준비되면, 텍스트 데이터 전처리 라이브 편집기 작업을 통해 대화형 방식으로 비정형 언어 데이터를 정형 형식으로 변환하고 데이터를 정리할 수 있습니다. 또는 내장 함수를 사용하여 프로그래밍 방식으로 NLP 데이터를 준비할 수도 있습니다.
워드 클라우드 및 산점도 플롯을 사용하여 자연어 처리를 위한 텍스트 데이터와 모델을 시각화할 수도 있습니다.
AI 모델링
분류 또는 회귀를 위해 다양한 유형의 머신러닝 모델을 훈련시킬 수 있습니다. 예를 들어, 몇 줄의 MATLAB 코드로 LSTM(장단기 기억 신경망)을 구축하고 훈련시킬 수 있습니다. 또한 심층 신경망 디자이너 앱을 사용하여 딥러닝 모델을 구축하고 훈련시키며, 정확도, 손실 및 검증 메트릭 플롯을 사용하여 모델 훈련을 모니터링할 수 있습니다.
딥러닝 모델을 처음부터 새로 생성하는 대신 사전 훈련된 모델을 가져와 여러분의 자연어 처리 작업에 바로 적용하거나 맞춰 조정할 수 있습니다. MATLAB을 통해 MATLAB Deep Learning Model Hub에서 사전 훈련된 신경망을 이용할 수 있습니다. 예를 들어, VGGish 모델을 사용하여 오디오 신호에서 특징 임베딩을 추출하고, 음성-텍스트 전사에 wav2vec 모델을 사용하고, 문서 분류에 BERT 모델을 사용할 수 있습니다. importNetworkFromTensorFlow 또는 importNetworkFromPyTorch 함수를 사용하여 TensorFlow™ 또는 PyTorch™에서 모델을 가져올 수도 있습니다.
관련 주제
웹사이트 선택
번역된 콘텐츠를 보고 지역별 이벤트와 혜택을 살펴보려면 웹사이트를 선택하십시오. 현재 계신 지역에 따라 다음 웹사이트를 권장합니다:
또한 다음 목록에서 웹사이트를 선택하실 수도 있습니다.
사이트 성능 최적화 방법
최고의 사이트 성능을 위해 중국 사이트(중국어 또는 영어)를 선택하십시오. 현재 계신 지역에서는 다른 국가의 MathWorks 사이트 방문이 최적화되지 않았습니다.
미주
- América Latina (Español)
- Canada (English)
- United States (English)
유럽
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)