목록2024/01/29 (1)
working_helen
[NLP] Word2Vec / Skip-gram, CBOW
1. Word Embedding2. Word2Vec 3. Word2Vecd의 학습 4. Skip-gram5. CBOW 1. Word Embedding 1) one-hot encoding- encoding : 입력 데이터를 컴퓨터가 처리할 수 있는 특정한 형식으로 변환해주는 과정 - NLP 초기엔 특정 단어의 등장 여부를 1과 0으로 표현하는 one-hot encoding 방식을 사용해 각각의 words를 단어 벡터로 수치화단어의 의미가 전혀 반영되지 않으므로 단어 벡터 간 유사성, 단어 벡터 간 수치 계산 등을 고려하지 못함 sparse vector를 생성하기 때문에 단어 수가 많아지면 과도하게 많은 파라미터를 사용하는 고차원 벡터가 됨 2) Embedding - embedding : 데이터의 의미..
교내 수업/인공지능
2024. 1. 29. 13:05