문서의 선택한 두 판 사이의 차이를 보여줍니다.
| 양쪽 이전 판 이전 판 다음 판 | 이전 판 | ||
|
wiki:miscellaneous:word2vec [2020/11/09 11:44] emblim98 |
wiki:miscellaneous:word2vec [2023/01/13 18:44] (현재) |
||
|---|---|---|---|
| 줄 27: | 줄 27: | ||
| * 이때 벡터에 단어의 의미를 추가하여 단어와 단어간의 관계를알아내기 위함이다. \\ | * 이때 벡터에 단어의 의미를 추가하여 단어와 단어간의 관계를알아내기 위함이다. \\ | ||
| * 단어를 벡터로 바꾸는 모델을 단어 임베딩 모델(word embedding model)이라고 하며, word2vec는 단어 임베딩 모델들 중 대표적인 모델이다.\\ | * 단어를 벡터로 바꾸는 모델을 단어 임베딩 모델(word embedding model)이라고 하며, word2vec는 단어 임베딩 모델들 중 대표적인 모델이다.\\ | ||
| + | |||
| + | ===== skip-gram모델 ===== | ||
| + | * WORD2VEC을 학습시키는 방법 | ||
| + | * 주어진 단어 하나를 가지고 주위에 나타날 수 있는 단어들의 등장 여부를 유추하는 방식 | ||
| + | * 데이터 양과 반복학습횟수가 증가할수록 벡터값이 정확해짐 | ||
| + | * 같은 문맥 내 비슷한 빈도로 등장하는 단어들은 벡터값이 비슷하여 연관성도 높음 | ||
| + | * center단어를 활용, 가까이 위치한 단어들일수록 관련성이 높다고 판단하여 더 높은 확률로 연관 키워드로 채택하는 방법을 사용 | ||
| + | |||
| + | |||
| + | |||
| ===== Ref ===== | ===== Ref ===== | ||
| 줄 34: | 줄 44: | ||
| \\ | \\ | ||
| [[https:// | [[https:// | ||
| - | |||
| - | |||
| - | ===== 첨부 ===== | ||
| {{tag> | {{tag> | ||