您的位置:首页 > 其它

word2vec注释

2015-09-22 14:26 260 查看

1、多线程并行处理:

1、分配内存空间,创建多线程,执行多线程。malloc,pthread_create,pthread_join

2、每个多线程处理的训练文档根据线程id,分配不同的文档内容,由fseek定位

2、vocab相关:

1、每个vocab对象都含以下内容:词(char[]),词频(long long),词在哈夫曼树中的父节点们(可以理解为编码的次序)(int*),哈夫曼编码(char*),哈夫曼码长度(char)

2、获取vocab词典有两条路径

1、是从词典文件直接读取。这个要求第一行是,也就是句子的分隔符(如果在训练语料里没有这个分隔符,则基本默认1000个词(最长句子长度)为一句话)

第二,每行应该是一个词后面接词频信息

2、从训练语料中统计。如果没指定词典文件,则在训练之前,程序会先遍历一边文档,统计出词典信息。

3、vocab的添加是增量式的,比如最初是1000的大小,当空间不够的时候会再添加2000,再不够,再添加3000,每次添加的数额比上次多1000

4、程序中设定了vocab_hash_size是300W,如果要求装填因子在0.7左右,则vocab中词的个数不应该超过210W,所以当个数超过210W的时候就会删除词频比较低的词

最开始设置的删除词频为1(min_reduce)及以下的词,再次超过210W的时候,min_reduce会加1,删除词频<=2的词,一直如此

5、在添加vocab的时候,同时维护了一张vocab_hash的哈希表

1、vocab_hash的key是词通过hash函数得出的int型值,value是这个词在vocab中的下标(从0开始),vocab_hash就是一个int型数组

2、获取word的hash key值得hash函数如下:for (a = 0; a < strlen(word); a++) hash = hash * 257 + word[a];

3、解决冲突的方法就是开放地址法,while (vocab_hash[hash] != -1) hash = (hash + 1) % vocab_hash_size;向下顺移

4、vocab_hash的构建是为了方便查找

6、在统计完成之后需要对vocab进行排序,按照词频的大小逆序排序,

1、第一个词,也就是不进行排序

2、排完序之后,需要将词频小于min_count的词去掉(直接free)

2、排完序之后,需要对vocab_hash重新就行计算

3、net initialization相关:

1、初始化三个矩阵,syn0(vocab_size*layer1_size),syn1(vocab_size*layer1_size),syn1neg(vocab_size*layer1_size)
2、vocab_size是词表的大小,layer1_size即词向量的维数
3、syn0用一个-0.005~0.005之间的数随机初始化里面的元素,syn1,syn1neg直接用0初始化
4、syn0就是最后得到的词的词向量,与vocab相呼应;即vocab[i].word这个词的词向量时syn0中的第i行(i从0开始)
5、syn1是用hierachical softmax算法时候的辅助矩阵,syn1neg是用negative sampling算法时候的辅助矩阵
6、syn1的每一行可以认为是哈夫曼树中的一个非叶子节点,这一行应该就代表了以他为祖先的叶子节点(词)的综合含义;
对于一个哈夫曼树,如果有N个叶子节点,则有N-1个非叶子节点,所以syn1和syn1neg里面的最后一行应该是无意义的
行数越大,代表的词也就越多,如第V-2行(哈夫曼树的根节点)理论上代表了所有词的意思
7、syn1neg的每一行与vocab相呼应,也就是vocab[i].word这个词在做负样本时有一个向量的表示,在syn1neg的第i行(从0开始)


4、binary tree create相关:

1、用词频进行编码,词频越大的词的编码长度越小
2、用了三个2*vocab_size的long long 型数组,代码比较巧妙,可以学学
3、初始化vocab结构体其他的成员:codelen,code(从上到下),point(从上到下跟该词相关的节点(不包括根节点)/该词相应code的编码时机次序)


5、训练相关:

1、每训练10000个词打印一次progress信息,并更新学习速率alpha(starting_alpha是0.025)

2、同时每次是取出一句话后再进行训练,处理完一句话后,再读取下一句,循环迭代

1、读取句子时,以</s>分隔符为标识,如果没有</s>则以上届1000个词为一句话。ps:在训练的时候是将换行符换成了</s>的
2、如果选择的了sub_sampling,则在遍历训练文档,构建句子的过程中,会随机的忽视掉一些频率比较高的词,具体方法可以看代码,不太懂


3、在程序执行过程中,每次的词窗大小是在随机变化的,如果设置参数-window 5,则窗口的大小就是3~11之间,也就是前k个词+后k个词+中间词,k在1~5之间

4、有两个向量值得关注:neu1,neu1e,都是layer1_size的大小,在cbow和skip gram model中具体略有不同

5、cbow模型:

1、cbow模型就是continuous bag of words,根据前k个词和后k个词预测中间词

2、找到前k个词和后k个词在vocab中的位置,并从syn0中找出他们的词向量,各维数相加,得到一个layer1_size的向量,即neu1

3、用hierachical softmax算法时,需要根据该词的每一位code编码进行计算,假定第j位code:

1、先找到该位code在哈夫曼树中的位置(存储在vocab[i].point[j]中),然后以此位置在syn1中找到对应的向量
2、用neu1与syn1中的这行向量相乘,得到f值,这个f就是输出值,然后对f进行归一化,映射到0~1之间
3、这点跟逻辑回归有点类似。在程序中,把softmax的label设置的是1-code[j],这个label就是logistic regression里面的真实值,f就是猜测
4、通过3,和逻辑回归的理论类推,我们就能得到一个loss function 或者负log 似然函数
5、loss function关于两个向量(neu1和syn1中的那行)的梯度共同部分为(1 - vocab[word].code[d] - f),对了,还有一个学习速率
6、 更新neu1e和syn1[vocab[i].point[j]],比如更新neu1,就用g = (1 - vocab[word].code[d] - f) * alpha;neu1e = g.*syn1[vocab[i].point[j]](标量与向量的乘积)
更新syn1[vocab[i].point[j]],syn1[vocab[i].point[j]] = g.*neu1;


4、用negative sampling算法时,并不需要考虑code编码的问题:

1、在参数设置的时候,假设我们选定了negative samples 为k个
2、我们随机的在词表当中抽取k个negative samples 词,当然有可能会抽到与当前这个词相同(虽然概率很小),我们就pass过去,也就是说真实的negative samples可能没有k个
3、假设我们现在考虑的是第j个negative sample,则从syn1neg里面找到j的向量表示,同neu1(上下文向量表示)相乘,得到输出值f,同样归一化
4、这里的g与hs中的g有点不同,这里g = (label-f)*alpha;如果是负样本的话label是0,如果是当前词label是1
5、更新neu1e和syn1neg[vocab[i].point[j]],同3.6


5、在上述第3或第4步处理完毕后,我们有一个neu1e的向量,我们再用这个neu1e去更新前k个词和后k个词的词向量,就是syn0里面的2k维向量(直接相加),从而完成了一个窗口的迭代更新

6、skip-gram 模型:

1、skip-gram model与cbow正好相反,是根据当前词来预测前k个和后k个词
2、假设现在当前词为cur_word,而我们要推测出窗口中的某个词last_word,last_word在窗口中,有2*k个这样的last_word都需要推测
3、用hierachical softmax算法时,同样需要对cur_word的每一位code编码进行计算,假定第j位code:
1、找到last_word在vocab中的位置,以此位置在syn0中找到对应的向量
2、先找到该位code在哈夫曼树中的位置(存储在vocab[i].point[j]中),然后以此位置在syn1中找到对应的向量
3、用last_word的向量与syn1中的这行向量相乘,得到f值,这个f就是输出值,然后对f进行归一化,映射到0~1之间
4、同样计算出梯度,并通过梯度来更新neu1e和syn1,具体的和cbow-hs几乎一样
4、用negative sampling算法时,所有流程基本与cbow的negative sampling一样,唯一的区别就是不是用neu1向量与syn1neg相乘,而是用last_word的词向量


6、tips:

1、程序中在对输出值f进行0~1之间映射的时候,是提前算好了一个数组expTable,这个数组的值在0.01~1(1/(1+e-6)~1/(1+e6))之间,所以f值小于-6或者大于6就continue了。
2、在进行negative sampling的时候,随机选择的word是和word的概率的power次方成正比的
3、随机数的生成:每次乘以一个很大的数,然后加11,然后取模,然后归一化
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: