기본 콘텐츠로 건너뛰기

단어분리(Subword segmenation) 및 토큰나이져(Tokenizer) 방법론


기계가 훈련 단계에서 학습한 단어들의 집합을 단어 집합(vocabulary)이라고 합니다. 단어집합은 텍스트의 모든 단어의 중복을 배제한 집합입니다. 그리고 테스트 단계에서 기계가 미처 배우지 못한 모르는 단어를 OOV(Out-Of-Vocabulary) 또는 UNK(Unknown Token)라고 표현합니다.


단어분리(Subword segmenation) 효과

단어분리 작업은 하나의 단어는 의미있는 여러 내부 단어들(subwords)의 조합으로 구성된 경우가 많기 때문에, 기계가 아직 배운 적이 없는 단어에 대해 어느 정도 대처할 수 있도록 합니다.


1. 기존 단어 분리 방법

학습동안 단어집하을 만들기 위해 데이터의 단어 빈도수를 확인하고 중복을 배제하여 vocabulary를 만듭니다.
1) 훈련 데이터에 있는 단어와 등장 빈도수 확인
low : 5, lower : 2, newest : 6, widest : 3
2) vocabulary 만들기
low, lower, newest, widest

기존 단어분리 방법의 단점

테스트 단계에서 학습하지 못한 lowest는 OOV가 발생합니다.

2. BPE(Byte Pair Encoding)

BPE(Byte pair encoding) 알고리즘은 1994년에 제안된 데이터 압축 알고리즘입니다. 자연어 처리에서의 BPE는 단어 분리(word segmentation) 알고리즘으로 사용됩니다.

수행방법

  • 훈련 데이터에 있는 단어들을 모든 글자(chracters) 또는 유니코드(unicode) 단위로 단어 집합(vocabulary)를 만듬.
  • 연속적으로 가장 많이 등장한 유니그램의 쌍을 찾아서 하나의 유니그램으로 통합함.

수행예제

  • 딕셔너리의 모든 단어들을 글자(chracter) 단위로 분리하여 vocabulary를 만듭니다.
# dictionary
l o w : 5,  l o w e r : 2,  n e w e s t : 6,  w i d e s t : 3
단어의 중복을 배제한 집합인 vocabulary를 만듭니다.
# vocabulary
l, o, w, e, r, n, w, s, t, i, d
  • 1회 - 딕셔너리를 참고로 하였을 때 빈도수가 9로 가장 높은 (e, s)의 쌍을 es로 통합합니다.
# dictionary
l o w : 5,
l o w e r : 2,
n e w es t : 6,
w i d es t : 3
# vocabulary update!
l, o, w, e, r, n, w, s, t, i, d, es
  • 2회 - 빈도수가 9로 가장 높은 (es, t)의 쌍을 est로 통합합니다.
# dictionary
l o w : 5,
l o w e r : 2,
n e w est : 6,
w i d est : 3
# vocabulary update!
l, o, w, e, r, n, w, s, t, i, d, es, est
  • 3회 - 빈도수가 7로 가장 높은 (l, o)의 쌍을 lo로 통합합니다.
# dictionary
lo w : 5,
lo w e r : 2,
n e w est : 6,
w i d est : 3
# vocabulary update!
l, o, w, e, r, n, w, s, t, i, d, es, est, lo
  • 10회 - 다음과 같은 vocabulary가 생성됩니다.
# dictionary update!
low : 5,
low e r : 2,
newest : 6,
widest : 3
# vocabulary update!
l, o, w, e, r, n, w, s, t, i, d, es, est, lo, low, ne, new, newest, wi, wid, widest

BPE 방식은 기존 방법의 단점인 lowest에 대해서 OOV가 발생하지 않습니다. 기계는 우선 'lowest'를 전부 글자 단위로 분할합니다. 즉, 'l, o, w, e, s, t'가 됩니다. 그리고 기계는 위의 단어 집합을 참고로 하여 'low'와 'est'를 찾아냅니다.

다음 Git에서 예제 소스 확인할 수 있습니다.
https://github.com/ynebula/NLP/blob/master/Data_Preprocessing/BPM.ipynb

3. WPM(Wordpiece Model)

WPM은 BPE과는 달리 빈도수가 아니라 우도(likelihood)를 통해서 단어를 분리합니다. 또한 WPM은 모든 단어의 맨 앞에 _를 붙이고, 단어는 내부단어(subword)로 통계에 기반하여 띄어쓰기로 분리합니다.
  • WPM을 수행하기 이전의 문장: Jet makers feud over seat width with big orders at stake
  • WPM을 수행한 결과(wordpieces): _J et _makers _fe ud _over _seat _width _with _big _orders _at _stake

4. 센텐스피스(Sentencepiece)

구글은 BPE 알고리즘과 Unigram Language Model Tokenizer를 구현한 센텐스피스를 깃허브에 공개하였습니다. 센텐스피스의 장점은 사전 토큰화 작업없이 단어 분리 토큰화를 수행하므로 언어에 종속되지 않습니다.

감사합니다.

Reference: https://wikidocs.net/22592
관련논문 
BPE 알고리즘 논문 : https://arxiv.org/pdf/1508.07909.pdf
BPE 알고리즘 논문 저자의 깃허브 : https://github.com/rsennrich/subword-nmt
서브워드 알고리즘 비교 : https://medium.com/@makcedward/how-subword-helps-on-your-nlp-model-83dd1b836f46
WPM의 아이디어를 제시한 논문 : https://static.googleusercontent.com/media/research.google.com/ko//pubs/archive/37842.pdf
WPM을 사용한 구글의 번역기에 대한 논문 : https://arxiv.org/pdf/1609.08144.pdf
WPM 참고 자료 : https://norman3.github.io/papers/docs/google_neural_machine_translation.html
유니그램 언어 모델을 이용한 단어 분리 : https://arxiv.org/pdf/1804.10959.pdf
센텐스피스 논문 : https://arxiv.org/pdf/1808.06226.pdf
센텐스피스 깃허브 : https://github.com/google/sentencepiece
센텐스피스 사용한 한국어 실습 참고 자료 : https://bab2min.tistory.com/622
wordpiece Vs. sentencepiece : https://mc.ai/pre-training-bert-from-scratch-with-cloud-tpu/
ttps://mlexplained.com/2019/11/06/a-deep-dive-into-the-wonderful-world-of-preprocessing-in-nlp/


댓글

이 블로그의 인기 게시물

[Deep Learning-딥러닝] 신경망 구조

뉴런 표현 및 연산 방법 생물학의 신경 세포를 단순화하여 모델링 한것이 뉴런입니다.  뉴런은 신경망의 기본 단위 입니다. 뉴런은 여러 신호를 받아, 하나의 신호를 만들어 전달하는 역할을 합니다. 출력을 내기 전에 활성 함수(activation function)을 통해서 비선형 특성을 가할 수 있습니다. 뉴런 연산 방법은 다음과 같습니다. 두 벡터  가중치 weight와 입력 x의  내적 을 구한 후 모두 합한다. 편향을 더합니다.  편향이 없으면, 추세선은 원점을 꼭 지나야 합니다. 활성 함수를 적용 해 비선형 함수로 만듭니다. 두 벡터의 내적은 다음과 같이 표현할 수 있습니다. 두 벡터의 내적 FC(Fully Connected) Layer Matrix 곱셈 연산 표현 방법 뉴런이 모인 한 단위를 계층(Layer)라고 하며, 이전 계층과 다음 계층의 모든 뉴런이 서로 연결된 계층을 Fully-Connected Layer(Dense Layer)라고 합니다. N개의 입력, M개의 출력이 있는 네트워크 예제입니다. 매트릭스  W 의  w 0 는 (N*1)의 벡터이며, 이런  w 0 를 M개 나열되어 있습니다. 입력  x 는 N개라 행렬로 표현하면 (N*1)로 표현됩니다. 가중치를 transpose하여 (M*N)*(N*1)을 연산하여 출력은 (M*1) 형태가 됩니다. 얕은 신경망 - Shallow Neural Network 구조 얕은 신경망 - Shallow Neural Network 입력, 은닉, 출력 3개의 계층으로 되어 있으며, 은닉 계측과 출력 계층이 Fully Connected 계층인 모델을 얕은 신경망(Shallow Neural Network)라고 합니다. 입력 계층(Input Layer) 아무런 연산 없이 은닉계층으로 값을 전달함. 계층의 크기=Node의 개수=입력 Scalar의 수=입력 Vecto...

SentencePiece 설치 및 사용법

Jupyter notebook 사용 기준으로 설치 및 사용법을 설명합니다. Sentencepiece 특징 및 기능 설명은 다음 사이트에서 참고 바랍니다. https://sungwoony.blogspot.com/2020/04/sentencepiece.html one-sentence-per-line raw corpus file.  tokenizer, normalizer 또는 preprocessor를 실행할 필요가 없습니다. Default로, Unicode NFKC로 SentencePiece input을 정규화 합니다.  설치방법 VM환경에 pip library가 설치되어 있어야 하며, 다음 명령어를 수행하면 설치됩니다. pip install sentencepiece 사용법 Sentencepiece library import setencepiece를 import해야 하며 관례적으로 spm으로 사용합니다. Train SentencePiece Model from corpuse botchan.txt 파일을 다음 사이트에서 다운로드 받을 수 있습니다. https://github.com/google/sentencepiece/blob/master/data/botchan.txt --mode_type의 기본은 uni type입니다. --model_type에 bpe를 넣으면 bpe 타입으로 생성됩니다. Train이 완료되면 "m.uni.model"과 "m.bpe.model" 이 생성됩니다. 둘 의 차이점은 다음에 확인할 수 있습니다. Option Name Description input 파일목록은 쉼표로 구분합니다. model_prefix output model로 prefix. <model_name>.model과 <model_name>.vocab 이 생성됩니다. vocab_size vocabulary size, e.g.. 8000, 16000, o...

[Deep Learning-딥러닝]SRU(Simple Recurrent Unit)

SRU(Simple Recurrent Unit) SRU는 병렬화와 시퀀스 모델링이 가능한 light recurrence한 unit입니다. 기존 RNN Architecture(RNN, LSTM, GRU)는 previous time step에 대한 의존성 때문에 병렬처리가 불가능하여 학습 속도가 느렸습니다. 이런 단점을 SRU는 높은 병렬화 및 시퀀스 모델링 기능을 제공하여 학습시간 단축시켰습니다. SRU는 분류, 질의응답에서 cuDNN-optimized LSTM보다 5~9배 빠른 속도를 보였고, LSTM과 convolutional models보다 좋은 성능을 보였습니다. 특징 SRU의 state연산은 time-dependent이지만, 각 state 차원은 independent입니다. 이것은 hidden dimension과 time steps에서 병렬화 연산하는 CUDA-level optimization으로 병렬 처리 가능합니다. SRU는 convolutions을 더 많은 recurrent 연결로 대체하였습니다(QRNN과 KNN과 같이). 이건 적은 연산으로 모델링을 유지합니다. SRU는 highway connection방법과 deep architecture에서 gradient전파에 맞게 조정된 매개 변수 초기화 체계를 사용하여 deep recurrent models training을 개선합니다. 연산방법 SRU는 forget gate, state, reset gate, hidden state 연산을 수행합니다. Light recurrence (1, 2번 수식) Forget gate: 정보 흐름을 제어 State: 이전 state와 현재 입력을 forget gate에 따라 조정 특징 - 문자열 정보를 위해 input x와 state c를 연산 - 이전 state에 영향을 받음 - 병렬처리를 위해 matrix multiplication 대신 point-wise multiplication 연산 수행 Highway network (3, 4번 수식) Hidden ...