Word2vec é um dos embeddings de palavras mais populares. Baseado em redes neurais e criado por Tomas Mikolov em 2013, o objetivo e a utilidade do Word2vec é agrupar os vetores de palavras semelhantes no espaço vetorial. Isto é, detectar, matematicamente, semelhanças. Dessa forma, o método é capaz de capturar o contexto de uma palavra em um documento e descrever o relacionamento entre palavras de um vocabulário, bem como semelhanças semânticas e sintáticas presentes no corpus textual.