기계가 훈련 단계에서 학습한 단어들의 집합을 단어 집합(vocabulary)이라고 합니다. 단어집합은 텍스트의 모든 단어의 중복을 배제한 집합입니다. 그리고 테스트 단계에서 기계가 미처 배우지 못한 모르는 단어를 OOV(Out-Of-Vocabulary) 또는 UNK(Unknown Token)라고 표현합니다.
단어분리(Subword segmenation) 효과
단어분리 작업은 하나의 단어는 의미있는 여러 내부 단어들(subwords)의 조합으로 구성된 경우가 많기 때문에, 기계가 아직 배운 적이 없는 단어에 대해 어느 정도 대처할 수 있도록 합니다.1. 기존 단어 분리 방법
학습동안 단어집하을 만들기 위해 데이터의 단어 빈도수를 확인하고 중복을 배제하여 vocabulary를 만듭니다.1) 훈련 데이터에 있는 단어와 등장 빈도수 확인
low : 5, lower : 2, newest : 6, widest : 3
2) vocabulary 만들기
low, lower, newest, widest
기존 단어분리 방법의 단점
테스트 단계에서 학습하지 못한 lowest는 OOV가 발생합니다.
2. BPE(Byte Pair Encoding)
BPE(Byte pair encoding) 알고리즘은 1994년에 제안된 데이터 압축 알고리즘입니다. 자연어 처리에서의 BPE는 단어 분리(word segmentation) 알고리즘으로 사용됩니다.
수행방법
- 훈련 데이터에 있는 단어들을 모든 글자(chracters) 또는 유니코드(unicode) 단위로 단어 집합(vocabulary)를 만듬.
- 연속적으로 가장 많이 등장한 유니그램의 쌍을 찾아서 하나의 유니그램으로 통합함.
수행예제
- 딕셔너리의 모든 단어들을 글자(chracter) 단위로 분리하여 vocabulary를 만듭니다.
# dictionary l o w : 5, l o w e r : 2, n e w e s t : 6, w i d e s t : 3 단어의 중복을 배제한 집합인 vocabulary를 만듭니다. # vocabulary l, o, w, e, r, n, w, s, t, i, d |
- 1회 - 딕셔너리를 참고로 하였을 때 빈도수가 9로 가장 높은 (e, s)의 쌍을 es로 통합합니다.
# dictionary l o w : 5, l o w e r : 2, n e w es t : 6, w i d es t : 3 # vocabulary update! l, o, w, e, r, n, w, s, t, i, d, es |
- 2회 - 빈도수가 9로 가장 높은 (es, t)의 쌍을 est로 통합합니다.
# dictionary l o w : 5, l o w e r : 2, n e w est : 6, w i d est : 3 # vocabulary update! l, o, w, e, r, n, w, s, t, i, d, es, est |
- 3회 - 빈도수가 7로 가장 높은 (l, o)의 쌍을 lo로 통합합니다.
# dictionary lo w : 5, lo w e r : 2, n e w est : 6, w i d est : 3 # vocabulary update! l, o, w, e, r, n, w, s, t, i, d, es, est, lo |
- 10회 - 다음과 같은 vocabulary가 생성됩니다.
# dictionary update! low : 5, low e r : 2, newest : 6, widest : 3 # vocabulary update! l, o, w, e, r, n, w, s, t, i, d, es, est, lo, low, ne, new, newest, wi, wid, widest |
BPE 방식은 기존 방법의 단점인 lowest에 대해서 OOV가 발생하지 않습니다. 기계는 우선 'lowest'를 전부 글자 단위로 분할합니다. 즉, 'l, o, w, e, s, t'가 됩니다. 그리고 기계는 위의 단어 집합을 참고로 하여 'low'와 'est'를 찾아냅니다.
다음 Git에서 예제 소스 확인할 수 있습니다.
https://github.com/ynebula/NLP/blob/master/Data_Preprocessing/BPM.ipynb
3. WPM(Wordpiece Model)
WPM은 BPE과는 달리 빈도수가 아니라 우도(likelihood)를 통해서 단어를 분리합니다. 또한 WPM은 모든 단어의 맨 앞에 _를 붙이고, 단어는 내부단어(subword)로 통계에 기반하여 띄어쓰기로 분리합니다.
- WPM을 수행하기 이전의 문장: Jet makers feud over seat width with big orders at stake
- WPM을 수행한 결과(wordpieces): _J et _makers _fe ud _over _seat _width _with _big _orders _at _stake
4. 센텐스피스(Sentencepiece)
구글은 BPE 알고리즘과 Unigram Language Model Tokenizer를 구현한 센텐스피스를 깃허브에 공개하였습니다. 센텐스피스의 장점은 사전 토큰화 작업없이 단어 분리 토큰화를 수행하므로 언어에 종속되지 않습니다.
감사합니다.
Reference: https://wikidocs.net/22592
관련논문
BPE 알고리즘 논문 : https://arxiv.org/pdf/1508.07909.pdf
BPE 알고리즘 논문 저자의 깃허브 : https://github.com/rsennrich/subword-nmt
서브워드 알고리즘 비교 : https://medium.com/@makcedward/how-subword-helps-on-your-nlp-model-83dd1b836f46
WPM의 아이디어를 제시한 논문 : https://static.googleusercontent.com/media/research.google.com/ko//pubs/archive/37842.pdf
WPM을 사용한 구글의 번역기에 대한 논문 : https://arxiv.org/pdf/1609.08144.pdf
WPM 참고 자료 : https://norman3.github.io/papers/docs/google_neural_machine_translation.html
유니그램 언어 모델을 이용한 단어 분리 : https://arxiv.org/pdf/1804.10959.pdf
센텐스피스 논문 : https://arxiv.org/pdf/1808.06226.pdf
센텐스피스 깃허브 : https://github.com/google/sentencepiece
센텐스피스 사용한 한국어 실습 참고 자료 : https://bab2min.tistory.com/622
wordpiece Vs. sentencepiece : https://mc.ai/pre-training-bert-from-scratch-with-cloud-tpu/
ttps://mlexplained.com/2019/11/06/a-deep-dive-into-the-wonderful-world-of-preprocessing-in-nlp/
댓글
댓글 쓰기