기본 콘텐츠로 건너뛰기

단어분리(Subword segmenation) 및 토큰나이져(Tokenizer) 방법론


기계가 훈련 단계에서 학습한 단어들의 집합을 단어 집합(vocabulary)이라고 합니다. 단어집합은 텍스트의 모든 단어의 중복을 배제한 집합입니다. 그리고 테스트 단계에서 기계가 미처 배우지 못한 모르는 단어를 OOV(Out-Of-Vocabulary) 또는 UNK(Unknown Token)라고 표현합니다.


단어분리(Subword segmenation) 효과

단어분리 작업은 하나의 단어는 의미있는 여러 내부 단어들(subwords)의 조합으로 구성된 경우가 많기 때문에, 기계가 아직 배운 적이 없는 단어에 대해 어느 정도 대처할 수 있도록 합니다.


1. 기존 단어 분리 방법

학습동안 단어집하을 만들기 위해 데이터의 단어 빈도수를 확인하고 중복을 배제하여 vocabulary를 만듭니다.
1) 훈련 데이터에 있는 단어와 등장 빈도수 확인
low : 5, lower : 2, newest : 6, widest : 3
2) vocabulary 만들기
low, lower, newest, widest

기존 단어분리 방법의 단점

테스트 단계에서 학습하지 못한 lowest는 OOV가 발생합니다.

2. BPE(Byte Pair Encoding)

BPE(Byte pair encoding) 알고리즘은 1994년에 제안된 데이터 압축 알고리즘입니다. 자연어 처리에서의 BPE는 단어 분리(word segmentation) 알고리즘으로 사용됩니다.

수행방법

  • 훈련 데이터에 있는 단어들을 모든 글자(chracters) 또는 유니코드(unicode) 단위로 단어 집합(vocabulary)를 만듬.
  • 연속적으로 가장 많이 등장한 유니그램의 쌍을 찾아서 하나의 유니그램으로 통합함.

수행예제

  • 딕셔너리의 모든 단어들을 글자(chracter) 단위로 분리하여 vocabulary를 만듭니다.
# dictionary
l o w : 5,  l o w e r : 2,  n e w e s t : 6,  w i d e s t : 3
단어의 중복을 배제한 집합인 vocabulary를 만듭니다.
# vocabulary
l, o, w, e, r, n, w, s, t, i, d
  • 1회 - 딕셔너리를 참고로 하였을 때 빈도수가 9로 가장 높은 (e, s)의 쌍을 es로 통합합니다.
# dictionary
l o w : 5,
l o w e r : 2,
n e w es t : 6,
w i d es t : 3
# vocabulary update!
l, o, w, e, r, n, w, s, t, i, d, es
  • 2회 - 빈도수가 9로 가장 높은 (es, t)의 쌍을 est로 통합합니다.
# dictionary
l o w : 5,
l o w e r : 2,
n e w est : 6,
w i d est : 3
# vocabulary update!
l, o, w, e, r, n, w, s, t, i, d, es, est
  • 3회 - 빈도수가 7로 가장 높은 (l, o)의 쌍을 lo로 통합합니다.
# dictionary
lo w : 5,
lo w e r : 2,
n e w est : 6,
w i d est : 3
# vocabulary update!
l, o, w, e, r, n, w, s, t, i, d, es, est, lo
  • 10회 - 다음과 같은 vocabulary가 생성됩니다.
# dictionary update!
low : 5,
low e r : 2,
newest : 6,
widest : 3
# vocabulary update!
l, o, w, e, r, n, w, s, t, i, d, es, est, lo, low, ne, new, newest, wi, wid, widest

BPE 방식은 기존 방법의 단점인 lowest에 대해서 OOV가 발생하지 않습니다. 기계는 우선 'lowest'를 전부 글자 단위로 분할합니다. 즉, 'l, o, w, e, s, t'가 됩니다. 그리고 기계는 위의 단어 집합을 참고로 하여 'low'와 'est'를 찾아냅니다.

다음 Git에서 예제 소스 확인할 수 있습니다.
https://github.com/ynebula/NLP/blob/master/Data_Preprocessing/BPM.ipynb

3. WPM(Wordpiece Model)

WPM은 BPE과는 달리 빈도수가 아니라 우도(likelihood)를 통해서 단어를 분리합니다. 또한 WPM은 모든 단어의 맨 앞에 _를 붙이고, 단어는 내부단어(subword)로 통계에 기반하여 띄어쓰기로 분리합니다.
  • WPM을 수행하기 이전의 문장: Jet makers feud over seat width with big orders at stake
  • WPM을 수행한 결과(wordpieces): _J et _makers _fe ud _over _seat _width _with _big _orders _at _stake

4. 센텐스피스(Sentencepiece)

구글은 BPE 알고리즘과 Unigram Language Model Tokenizer를 구현한 센텐스피스를 깃허브에 공개하였습니다. 센텐스피스의 장점은 사전 토큰화 작업없이 단어 분리 토큰화를 수행하므로 언어에 종속되지 않습니다.

감사합니다.

Reference: https://wikidocs.net/22592
관련논문 
BPE 알고리즘 논문 : https://arxiv.org/pdf/1508.07909.pdf
BPE 알고리즘 논문 저자의 깃허브 : https://github.com/rsennrich/subword-nmt
서브워드 알고리즘 비교 : https://medium.com/@makcedward/how-subword-helps-on-your-nlp-model-83dd1b836f46
WPM의 아이디어를 제시한 논문 : https://static.googleusercontent.com/media/research.google.com/ko//pubs/archive/37842.pdf
WPM을 사용한 구글의 번역기에 대한 논문 : https://arxiv.org/pdf/1609.08144.pdf
WPM 참고 자료 : https://norman3.github.io/papers/docs/google_neural_machine_translation.html
유니그램 언어 모델을 이용한 단어 분리 : https://arxiv.org/pdf/1804.10959.pdf
센텐스피스 논문 : https://arxiv.org/pdf/1808.06226.pdf
센텐스피스 깃허브 : https://github.com/google/sentencepiece
센텐스피스 사용한 한국어 실습 참고 자료 : https://bab2min.tistory.com/622
wordpiece Vs. sentencepiece : https://mc.ai/pre-training-bert-from-scratch-with-cloud-tpu/
ttps://mlexplained.com/2019/11/06/a-deep-dive-into-the-wonderful-world-of-preprocessing-in-nlp/


댓글

이 블로그의 인기 게시물

SentencePiece 설치 및 사용법

Jupyter notebook 사용 기준으로 설치 및 사용법을 설명합니다. Sentencepiece 특징 및 기능 설명은 다음 사이트에서 참고 바랍니다. https://sungwoony.blogspot.com/2020/04/sentencepiece.html one-sentence-per-line raw corpus file.  tokenizer, normalizer 또는 preprocessor를 실행할 필요가 없습니다. Default로, Unicode NFKC로 SentencePiece input을 정규화 합니다.  설치방법 VM환경에 pip library가 설치되어 있어야 하며, 다음 명령어를 수행하면 설치됩니다. pip install sentencepiece 사용법 Sentencepiece library import setencepiece를 import해야 하며 관례적으로 spm으로 사용합니다. Train SentencePiece Model from corpuse botchan.txt 파일을 다음 사이트에서 다운로드 받을 수 있습니다. https://github.com/google/sentencepiece/blob/master/data/botchan.txt --mode_type의 기본은 uni type입니다. --model_type에 bpe를 넣으면 bpe 타입으로 생성됩니다. Train이 완료되면 "m.uni.model"과 "m.bpe.model" 이 생성됩니다. 둘 의 차이점은 다음에 확인할 수 있습니다. Option Name Description input 파일목록은 쉼표로 구분합니다. model_prefix output model로 prefix. <model_name>.model과 <model_name>.vocab 이 생성됩니다. vocab_size vocabulary size, e.g.. 8000, 16000, o...

[Deep Learning-딥러닝] 신경망 구조

뉴런 표현 및 연산 방법 생물학의 신경 세포를 단순화하여 모델링 한것이 뉴런입니다.  뉴런은 신경망의 기본 단위 입니다. 뉴런은 여러 신호를 받아, 하나의 신호를 만들어 전달하는 역할을 합니다. 출력을 내기 전에 활성 함수(activation function)을 통해서 비선형 특성을 가할 수 있습니다. 뉴런 연산 방법은 다음과 같습니다. 두 벡터  가중치 weight와 입력 x의  내적 을 구한 후 모두 합한다. 편향을 더합니다.  편향이 없으면, 추세선은 원점을 꼭 지나야 합니다. 활성 함수를 적용 해 비선형 함수로 만듭니다. 두 벡터의 내적은 다음과 같이 표현할 수 있습니다. 두 벡터의 내적 FC(Fully Connected) Layer Matrix 곱셈 연산 표현 방법 뉴런이 모인 한 단위를 계층(Layer)라고 하며, 이전 계층과 다음 계층의 모든 뉴런이 서로 연결된 계층을 Fully-Connected Layer(Dense Layer)라고 합니다. N개의 입력, M개의 출력이 있는 네트워크 예제입니다. 매트릭스  W 의  w 0 는 (N*1)의 벡터이며, 이런  w 0 를 M개 나열되어 있습니다. 입력  x 는 N개라 행렬로 표현하면 (N*1)로 표현됩니다. 가중치를 transpose하여 (M*N)*(N*1)을 연산하여 출력은 (M*1) 형태가 됩니다. 얕은 신경망 - Shallow Neural Network 구조 얕은 신경망 - Shallow Neural Network 입력, 은닉, 출력 3개의 계층으로 되어 있으며, 은닉 계측과 출력 계층이 Fully Connected 계층인 모델을 얕은 신경망(Shallow Neural Network)라고 합니다. 입력 계층(Input Layer) 아무런 연산 없이 은닉계층으로 값을 전달함. 계층의 크기=Node의 개수=입력 Scalar의 수=입력 Vecto...

JVMNotFoundException: No JVM shared library file (jvm.dll) found. Try setting up the JAVA_HOME environment variable properly.

에러 메시지 발생 상황 한글 형태소 분석을 학습 중 입니다. 한글 형태소 분석 중 Konlpy 라이브러를 사용하기 위해, Konlpy를 설치하고 Okt를 import하고 선언할 때 다음과 같은 에러가 발생했습니다. [Source] from konlpy.tag import Okt okt=Okt() #-> 에러발생 지점 [Error Message] JVMNotFoundException: No JVM shared library file (jvm.dll) found. Try setting up the JAVA_HOME environment variable properly. 에러 내용을 분석하면, JAVA_HOME을 환경변수에 선언하라는 내용 이었습니다. PC를 새로 바꾸면서 JAVA를 설치를 안 했었네 하는 생각이 들었습니다. 요새 거의 모든 작업을 Colab에서 진행하니 로컬 피씨에 개발 환경 세팅을 안했었네요. 1. JDK 다운로드 및 디렉토리 위치 변경 Oracle 라이센스가 변경되서 이것저것 사용에 제약이 있으니, open jdk를 설치합니다. 2020년 04월 05일 기준 jdk 최신 버젼은 14입니다. 필자는 윈도우 환경에서 학습 중이라 Builds - Windows/64 바이너리 파일을 다운 받았습니다. Download Site - https://jdk.java.net 다운로드가 완료되면 적절한 위치에 옮깁니다. 필자는 "C:\Program Files\openjdk-14_windows-x64_bin" 경로로 설정했습니다. 2. 환경 변수에 JAVA_HOME 및 PATH 설정 시스템 환경 변수 편집창을 열고 JAVA_HOME 변수를 선언하고 변경한 디렉토리 경로를 저장합니다. 환경 변수 편집창을 열고 PATH에 %JAVA_HOME%\bin을 추가합니다. 이는 java, javac 및 java에서 지원하는 명령어를 수행하기 위함입니다. 3. 개발 툴 ...