word2vec注释
2015-09-22 14:26
260 查看
1、多线程并行处理:
1、分配内存空间,创建多线程,执行多线程。malloc,pthread_create,pthread_join2、每个多线程处理的训练文档根据线程id,分配不同的文档内容,由fseek定位
2、vocab相关:
1、每个vocab对象都含以下内容:词(char[]),词频(long long),词在哈夫曼树中的父节点们(可以理解为编码的次序)(int*),哈夫曼编码(char*),哈夫曼码长度(char)2、获取vocab词典有两条路径:
1、是从词典文件直接读取。这个要求第一行是,也就是句子的分隔符(如果在训练语料里没有这个分隔符,则基本默认1000个词(最长句子长度)为一句话)
第二,每行应该是一个词后面接词频信息
2、从训练语料中统计。如果没指定词典文件,则在训练之前,程序会先遍历一边文档,统计出词典信息。
3、vocab的添加是增量式的,比如最初是1000的大小,当空间不够的时候会再添加2000,再不够,再添加3000,每次添加的数额比上次多1000
4、程序中设定了vocab_hash_size是300W,如果要求装填因子在0.7左右,则vocab中词的个数不应该超过210W,所以当个数超过210W的时候就会删除词频比较低的词
最开始设置的删除词频为1(min_reduce)及以下的词,再次超过210W的时候,min_reduce会加1,删除词频<=2的词,一直如此
5、在添加vocab的时候,同时维护了一张vocab_hash的哈希表
1、vocab_hash的key是词通过hash函数得出的int型值,value是这个词在vocab中的下标(从0开始),vocab_hash就是一个int型数组
2、获取word的hash key值得hash函数如下:for (a = 0; a < strlen(word); a++) hash = hash * 257 + word[a];
3、解决冲突的方法就是开放地址法,while (vocab_hash[hash] != -1) hash = (hash + 1) % vocab_hash_size;向下顺移
4、vocab_hash的构建是为了方便查找
6、在统计完成之后需要对vocab进行排序,按照词频的大小逆序排序,
1、第一个词,也就是不进行排序
2、排完序之后,需要将词频小于min_count的词去掉(直接free)
2、排完序之后,需要对vocab_hash重新就行计算
3、net initialization相关:
1、初始化三个矩阵,syn0(vocab_size*layer1_size),syn1(vocab_size*layer1_size),syn1neg(vocab_size*layer1_size) 2、vocab_size是词表的大小,layer1_size即词向量的维数 3、syn0用一个-0.005~0.005之间的数随机初始化里面的元素,syn1,syn1neg直接用0初始化 4、syn0就是最后得到的词的词向量,与vocab相呼应;即vocab[i].word这个词的词向量时syn0中的第i行(i从0开始) 5、syn1是用hierachical softmax算法时候的辅助矩阵,syn1neg是用negative sampling算法时候的辅助矩阵 6、syn1的每一行可以认为是哈夫曼树中的一个非叶子节点,这一行应该就代表了以他为祖先的叶子节点(词)的综合含义; 对于一个哈夫曼树,如果有N个叶子节点,则有N-1个非叶子节点,所以syn1和syn1neg里面的最后一行应该是无意义的 行数越大,代表的词也就越多,如第V-2行(哈夫曼树的根节点)理论上代表了所有词的意思 7、syn1neg的每一行与vocab相呼应,也就是vocab[i].word这个词在做负样本时有一个向量的表示,在syn1neg的第i行(从0开始)
4、binary tree create相关:
1、用词频进行编码,词频越大的词的编码长度越小 2、用了三个2*vocab_size的long long 型数组,代码比较巧妙,可以学学 3、初始化vocab结构体其他的成员:codelen,code(从上到下),point(从上到下跟该词相关的节点(不包括根节点)/该词相应code的编码时机次序)
5、训练相关:
1、每训练10000个词打印一次progress信息,并更新学习速率alpha(starting_alpha是0.025)2、同时每次是取出一句话后再进行训练,处理完一句话后,再读取下一句,循环迭代
1、读取句子时,以</s>分隔符为标识,如果没有</s>则以上届1000个词为一句话。ps:在训练的时候是将换行符换成了</s>的 2、如果选择的了sub_sampling,则在遍历训练文档,构建句子的过程中,会随机的忽视掉一些频率比较高的词,具体方法可以看代码,不太懂
3、在程序执行过程中,每次的词窗大小是在随机变化的,如果设置参数-window 5,则窗口的大小就是3~11之间,也就是前k个词+后k个词+中间词,k在1~5之间
4、有两个向量值得关注:neu1,neu1e,都是layer1_size的大小,在cbow和skip gram model中具体略有不同
5、cbow模型:
1、cbow模型就是continuous bag of words,根据前k个词和后k个词预测中间词
2、找到前k个词和后k个词在vocab中的位置,并从syn0中找出他们的词向量,各维数相加,得到一个layer1_size的向量,即neu1
3、用hierachical softmax算法时,需要根据该词的每一位code编码进行计算,假定第j位code:
1、先找到该位code在哈夫曼树中的位置(存储在vocab[i].point[j]中),然后以此位置在syn1中找到对应的向量 2、用neu1与syn1中的这行向量相乘,得到f值,这个f就是输出值,然后对f进行归一化,映射到0~1之间 3、这点跟逻辑回归有点类似。在程序中,把softmax的label设置的是1-code[j],这个label就是logistic regression里面的真实值,f就是猜测 4、通过3,和逻辑回归的理论类推,我们就能得到一个loss function 或者负log 似然函数 5、loss function关于两个向量(neu1和syn1中的那行)的梯度共同部分为(1 - vocab[word].code[d] - f),对了,还有一个学习速率 6、 更新neu1e和syn1[vocab[i].point[j]],比如更新neu1,就用g = (1 - vocab[word].code[d] - f) * alpha;neu1e = g.*syn1[vocab[i].point[j]](标量与向量的乘积) 更新syn1[vocab[i].point[j]],syn1[vocab[i].point[j]] = g.*neu1;
4、用negative sampling算法时,并不需要考虑code编码的问题:
1、在参数设置的时候,假设我们选定了negative samples 为k个 2、我们随机的在词表当中抽取k个negative samples 词,当然有可能会抽到与当前这个词相同(虽然概率很小),我们就pass过去,也就是说真实的negative samples可能没有k个 3、假设我们现在考虑的是第j个negative sample,则从syn1neg里面找到j的向量表示,同neu1(上下文向量表示)相乘,得到输出值f,同样归一化 4、这里的g与hs中的g有点不同,这里g = (label-f)*alpha;如果是负样本的话label是0,如果是当前词label是1 5、更新neu1e和syn1neg[vocab[i].point[j]],同3.6
5、在上述第3或第4步处理完毕后,我们有一个neu1e的向量,我们再用这个neu1e去更新前k个词和后k个词的词向量,就是syn0里面的2k维向量(直接相加),从而完成了一个窗口的迭代更新
6、skip-gram 模型:
1、skip-gram model与cbow正好相反,是根据当前词来预测前k个和后k个词 2、假设现在当前词为cur_word,而我们要推测出窗口中的某个词last_word,last_word在窗口中,有2*k个这样的last_word都需要推测 3、用hierachical softmax算法时,同样需要对cur_word的每一位code编码进行计算,假定第j位code: 1、找到last_word在vocab中的位置,以此位置在syn0中找到对应的向量 2、先找到该位code在哈夫曼树中的位置(存储在vocab[i].point[j]中),然后以此位置在syn1中找到对应的向量 3、用last_word的向量与syn1中的这行向量相乘,得到f值,这个f就是输出值,然后对f进行归一化,映射到0~1之间 4、同样计算出梯度,并通过梯度来更新neu1e和syn1,具体的和cbow-hs几乎一样 4、用negative sampling算法时,所有流程基本与cbow的negative sampling一样,唯一的区别就是不是用neu1向量与syn1neg相乘,而是用last_word的词向量
6、tips:
1、程序中在对输出值f进行0~1之间映射的时候,是提前算好了一个数组expTable,这个数组的值在0.01~1(1/(1+e-6)~1/(1+e6))之间,所以f值小于-6或者大于6就continue了。 2、在进行negative sampling的时候,随机选择的word是和word的概率的power次方成正比的 3、随机数的生成:每次乘以一个很大的数,然后加11,然后取模,然后归一化
相关文章推荐
- 第九节 简单的文本处理
- 使用HtmlUnit登录百度
- 交互案例实战!三个按钮背后由小见大的交互思考
- Qt for Android 部署流程分析
- 关于MySQL的查询缓存
- 企业的转变
- 【iOS】iOS CocoaPods 整理
- Centos GeoIP 安装成 PHP 扩展
- JavaEE7+Websockets+GlassFish4打造聊天室
- Semaphore
- MongoDB安装成为Windows服务及日常使用遇到问题总结
- c/c++的|、||、&、&&、异或、~、!
- CocoaPods使用手册
- JavaScript 经典实例收集整理
- 网络全民创业:95%电商生活得非常痛苦
- 源码
- JavaScript作用域和执行环境
- 怎样安装haskell
- SqlHelper
- Python 拉丁超立方采样