从gensim解释Word2Vec负相似度

21

例如,我们使用gensim训练word2vec模型:

from gensim import corpora, models, similarities
from gensim.models.word2vec import Word2Vec

documents = ["Human machine interface for lab abc computer applications",
              "A survey of user opinion of computer system response time",
              "The EPS user interface management system",
              "System and human system engineering testing of EPS",
              "Relation of user perceived response time to error measurement",
              "The generation of random binary unordered trees",
              "The intersection graph of paths in trees",
              "Graph minors IV Widths of trees and well quasi ordering",
              "Graph minors A survey"]

texts = [[word for word in document.lower().split()] for document in documents]
w2v_model = Word2Vec(texts, size=500, window=5, min_count=1)

当我们查询单词之间的相似度时,发现存在负相似度得分:

>>> w2v_model.similarity('graph', 'computer')
0.046929569156789336
>>> w2v_model.similarity('graph', 'system')
0.063683518562347399
>>> w2v_model.similarity('survey', 'generation')
-0.040026775040430063
>>> w2v_model.similarity('graph', 'trees')
-0.0072684112978664561

如何解释负分数?

如果是余弦相似性,范围不应该是[0,1]吗?

Word2Vec.similarity(x,y)函数的上下限是多少?文档中没有太多介绍:https://radimrehurek.com/gensim/models/word2vec.html#gensim.models.word2vec.Word2Vec.similarity =(

看Python包装器代码,也没有太多信息: https://github.com/RaRe-Technologies/gensim/blob/develop/gensim/models/word2vec.py#L1165

(如果可能,请指向实现相似函数的.pyx代码。)


2
如果使用余弦相似度,则范围为[-1, 1]。来自维基百科文章:“因此,它是方向而不是大小的判断:具有相同方向的两个向量具有余弦相似度为1,90°处的两个向量具有相似度为0,直径相对的两个向量具有相似度为-1,与其大小无关。” - juanpa.arrivillaga
余弦相似性可以看作是点积。因此,如果两个单词的余弦相似度为0,则它们完全正交,意思是它们具有两个不同的“含义”,并且完全无关。而负相似度则表示两个单词在构成上相关,但以相反(或负)方式相关联。 - The Brofessor
3个回答

14

2
其他回答者已经回答了有关Word2Vec(W2V)数值范围的问题,但是他们没有解释W2V如何生成负值的基本机制。理解为什么W2V向量的余弦相似度可以是负数的关键在于意识到W2V向量与简单计数基础上生成的向量并不相同。如果向量化系统基于训练语料库中n个单词范围内单词出现次数的简单计数,则所有词汇的余弦相似度都将从0到1范围内,就像你在问题中问的一样。以下是计数算法的具体示例:
起始语料: “这家餐厅很棒,服务员非常友好。我强烈推荐在那里用餐,如果您想体验最佳的美食。”
那么词汇表将是: {'and', 'best', 'dining', 'eating', 'excellent', 'experience', 'experts', 'fantastic', 'fine', 'i', 'if', 'of', 'recommend', 'restaurant', 'the', 'there', 'to', 'waiters', 'want', 'was', 'were', 'you'}

“the”、“restaurant”和“eating”的向量如下(向量为列): enter image description here

每个向量内的标量范围从0到m(语料库中出现次数最高的单词的计数)。使用此系统比较两个向量时,余弦相似度将始终从0(正交)缩放到1(对齐)。例如,上述三个单词的余弦相似度为:

“the”和“were”: 0.1581
“the”和“experts”: 0.3162
“were”和“experts”: 0.5

但是,这不是W2V的工作方式,它实际上是一个简单的两层神经网络(一个隐藏层和一个输出层)。该模型被训练用于预测句子中缺失的单词(CBOW),以及单词在句子中周围上下文单词(Skipgram)。虽然它被训练用于执行此功能,但W2V的巧妙之处在于,在训练后我们不关心输出。相反,我们想要的是嵌入,即感兴趣的单词的隐藏层的值(如果您不熟悉W2V的内部工作原理,则建议阅读Chris McCormick的博客[1])。最终结果是嵌入向量中的标量值可以为-1到+1。因此,可能会有一个向量与另一个完全相反,从而产生余弦相似度为-1的情况,这是使用简单频率方法无法实现的。
我对两个单词的负余弦相似度值的解释是它们可能是不相关的或者可能具有相反的价值,但不一定是反义词。我可以想到一些例子,真正的反义词可能具有高余弦相似度分数,因为正如John Rupert Firth[2]所说,它们保持相同的公司。

[1]: http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/
[2]: https://en.wikipedia.org/wiki/John_Rupert_Firth


2
正如其他人所说,余弦相似度可以根据比较的两个向量之间的角度在-1到1之间变化。在gensim中的确切实现是规范化向量的简单点积。

https://github.com/RaRe-Technologies/gensim/blob/4f0e2ae0531d67cee8d3e06636e82298cb554b04/gensim/models/keyedvectors.py#L581

def similarity(self, w1, w2):
        """
        Compute cosine similarity between two words.
        Example::
          >>> trained_model.similarity('woman', 'man')
          0.73723527
          >>> trained_model.similarity('woman', 'woman')
          1.0
        """
        return dot(matutils.unitvec(self[w1]), matutils.unitvec(self[w2]))

在解释上,你可以把这些值看作是类似于相关系数的概念。值为1表示词向量之间完美的关系(例如,“女人”与“女人”),值为0表示词语之间没有关系,值为-1表示词语之间完全相反的关系。

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接