我有另一个问题,希望有人能够帮助我。
我正在使用Jensen-Shannon-Divergence来测量两个概率分布之间的相似性。如果使用基于2的对数,相似度得分看起来是正确的,因为它们在1到0之间,其中0表示分布相等。
但是,我不确定是否实际上存在错误,想知道是否有人能够说“是的,这是正确的”或“不,你做错了什么”。
以下是代码:
from numpy import zeros, array
from math import sqrt, log
class JSD(object):
def __init__(self):
self.log2 = log(2)
def KL_divergence(self, p, q):
""" Compute KL divergence of two vectors, K(p || q)."""
return sum(p[x] * log((p[x]) / (q[x])) for x in range(len(p)) if p[x] != 0.0 or p[x] != 0)
def Jensen_Shannon_divergence(self, p, q):
""" Returns the Jensen-Shannon divergence. """
self.JSD = 0.0
weight = 0.5
average = zeros(len(p)) #Average
for x in range(len(p)):
average[x] = weight * p[x] + (1 - weight) * q[x]
self.JSD = (weight * self.KL_divergence(array(p), average)) + ((1 - weight) * self.KL_divergence(array(q), average))
return 1-(self.JSD/sqrt(2 * self.log2))
if __name__ == '__main__':
J = JSD()
p = [1.0/10, 9.0/10, 0]
q = [0, 1.0/10, 9.0/10]
print J.Jensen_Shannon_divergence(p, q)
问题在于当比较两个文本文件时,我感觉分数不够高,但这纯粹是主观感受。
如常,任何帮助都将不胜感激。
if p[x] != 0.0 or p[x] != 0
看起来很奇怪。 - Janne Karila