我用结巴分词后用 gensim 训练得到词向量,训练模型时但是会报"word '无鞍' not in vocabulary" "word '无鞍' not in vocabulary" "word '无鞍' not in vocabulary" "word '拍张' not in vocabulary" "word '拍张' not in vocabulary" 这样的错误,求助
1
kaiju 2017-12-11 23:57:40 +08:00
首先确定你想找的词在真的出现过 (你确定分词会分出来“无鞍”这种词?)
其次 word2vec 会自动忽略出现过 n 次以下的词,n 好像等于 5 (“无鞍”这种词即使出现过,次数应该也很少) |
2
rock_cloud 2017-12-12 00:03:04 +08:00
同意楼上所说,另外 Python 的话,注意编码问题。
|
3
hadoop 2017-12-12 00:41:10 +08:00 via Android
有个按词频低于多少就丢弃的参数
|
4
sadscv 2017-12-12 07:20:20 +08:00 via Android
你在分词之后转成 w2v 之前先对数据做一道预处理,如果是出现 out of vocabulary 你就直接生成一个同样尺寸的随机词向量。
如果在训练 w2v 的语料已经经过预处理,其中包括一个特殊的 UNK 单词,那你直接用 UNK 的向量来表示当前 OOV 的词也可以。 |
5
UN2758 OP @kaiju min_count wo 我设置的是 5,但是不在词表中的词出现 oov 提示了 67 次的也有,无鞍这词是 jieba 自己分出来的,我也很无语
|
6
UN2758 OP @rock_cloud 统一是 utf-8,在 ubuntu 上搞的,应该没有编码问题,但是"." "," "000" " "这样的也会提示 oov
|
9
sadscv 2017-12-12 16:35:26 +08:00
@UN2758 UNK 就是指某个单词是未登录词,比如你预处理时,把所有低于5词频的单词替换成一个特殊标识'UNK',那么所有的罕见词在训练时就会被当作是同一个词来训练。当出现 oov 时,用这个特殊的未登录词向量来表示该词。
当然以上仅是一种简单粗暴的作法,与全随机或全0向量并无本质区别... |
10
UN2758 OP @sadscv 哦,用 jieba 自己的词典分词感觉分出来的有些莫名其妙,是不是指定了用自己的词典,结巴自带的词典就失效了啊
|
11
zix 2017-12-12 19:38:08 +08:00
@UN2758 jieba 自己的词典不会失效。jieba 里面有新词发现功能,用的 HMM,默认是开启的,所以会去产生一些奇怪的结果出来,你可以把这个选项关掉,不过这样如果有词没有出现在词表里,就会分成一个一个字。
``` text = "blablabla..." jieba.lcut(text, HMM=True) # 默认行为 jieba.lcut(text, HMM=False) # 关闭 HMM ``` |
12
searene 2017-12-12 21:36:14 +08:00
很有可能是编码的问题
|