我一直在研究如何找到一种高效的解决方案。我研究了一些差异引擎(谷歌的diff-match-patch、Python的diff)以及一些最长公共链算法。
希望能得到你们的建议,有没有特别推荐的算法或库可以解决这个问题?
我一直在研究如何找到一种高效的解决方案。我研究了一些差异引擎(谷歌的diff-match-patch、Python的diff)以及一些最长公共链算法。
希望能得到你们的建议,有没有特别推荐的算法或库可以解决这个问题?
def levenshtein_distance(first, second):
"""Find the Levenshtein distance between two strings."""
if len(first) > len(second):
first, second = second, first
if len(second) == 0:
return len(first)
first_length = len(first) + 1
second_length = len(second) + 1
distance_matrix = [[0] * second_length for x in range(first_length)]
for i in range(first_length):
distance_matrix[i][0] = i
for j in range(second_length):
distance_matrix[0][j]=j
for i in xrange(1, first_length):
for j in range(1, second_length):
deletion = distance_matrix[i-1][j] + 1
insertion = distance_matrix[i][j-1] + 1
substitution = distance_matrix[i-1][j-1]
if first[i-1] != second[j-1]:
substitution += 1
distance_matrix[i][j] = min(insertion, deletion, substitution)
return distance_matrix[first_length-1][second_length-1]
def percent_diff(first, second):
return 100*levenshtein_distance(a, b) / float(max(len(a), len(b)))
a = "the quick brown fox"
b = "the quick vrown fox"
print '%.2f' % percent_diff(a, b)
除了difflib
和其他常见的子序列库外,如果是自然语言文本,您可以考虑使用词干提取技术,将单词规范化为其根形式。您可以在自然语言工具包(http://www.nltk.org/)库中找到几个实现。您还可以通过使用N-Grams(http://en.wikipedia.org/wiki/N-gram)更语义化地比较自然语言文本的块。