其他分享
首页 > 其他分享> > Embedding相关笔记

Embedding相关笔记

作者:互联网

目录

Word2Vec模型

模型结构:

模型训练:

Simple CBOW Model

CBOW Multi-Word Context Model

Skip-gram

从效果上看,skip-gram的结果一般会比CBOW好一些,原因可能是CBOW在对多个词进行平均时带来了一些额外的信息损失

Deep Crossing

模型结构:

t-SNE数据降维

t-SNE(t-distributed stochastic neighbor embedding)是用于降维的一种机器学习算法,常用于高维数据可视化

t-SNE的两大优势:

四个不足:

Scikit-learn代码Demo

>>> import numpy as np
>>> from sklearn.manifold import TSNE
>>> X = np.array([[0, 0, 0], [0, 1, 1], [1, 0, 1], [1, 1, 1]])
>>> X_embedded = TSNE(n_components=2, learning_rate='auto',
...                   init='random').fit_transform(X)
>>> X_embedded.shape
(4, 2)

标签:输出,SNE,Skip,笔记,降维,Embedding,CBOW,相关
来源: https://www.cnblogs.com/lokvahkoor/p/16219309.html