반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 파이썬
- CSS
- 자기지도학습
- 정수인코딩
- R
- 신뢰구간
- DOM
- HTML
- EC2
- NLP
- Ajax
- Filter
- 인덱스
- 행렬
- 프로토콜
- 함수
- 노마쌤과 즐거운 영어 습관
- 벡터
- DOMAPI
- 노트list
- 유의수준
- 웹폰트
- 질의확장
- 매일영어습관
- Ajax프레임워크
- 클러스터링기법
- 명령어
- 노마쌤
- Mac konlpy
- JS
Archives
- Today
- Total
채니의 개발일기
Wodr2Vec 본문
728x90
반응형
- "비슷한 문맥에서 나타나는 단어들은 비슷한 의미를 가진다"
- 단어의 의미를 반영한 임베딩 벡터를 만드는 대표적인 방법
- 벡터가 된 단어들은 이제 '벡터'이므로 서로 연산이 가능하다.
- Word2Vec의 두가지 학습 모델
1.CBOW : 주변의 단어들을 기반으로 중심단어 예측
2. SKip-Gram : 중심단어를 기반으로 주변단어 예측
CBOW
- 주변 단어들(context words)을 기반으로 중심단어(center word)를 예측한다.
728x90
반응형
'인공지능 > 자연어처리' 카테고리의 다른 글
다층퍼셉트론(소트맥스 회귀와 다층 퍼셉트론) (0) | 2023.10.25 |
---|---|
다층퍼셉트론(로지스틱회귀) (0) | 2023.10.25 |
선형회귀(로지스틱 회귀분석) (0) | 2023.10.11 |
워드 임베딩(Word Embedding) (0) | 2023.10.10 |
단어 벡터화(Vectorization) (1) | 2023.10.09 |