sklearn:如何加速向量化器(例如Tfidfvectorizer)

11

通过对我的程序进行全面分析,我已经能够确定它的运行速度被向量化器拖慢了。

我正在处理文本数据,两行简单的tfidf单元素向量化占据了代码执行总时间的99.2%。

这里是一个可运行的示例(这将下载一个3mb的训练文件到您的磁盘上,如果要在自己的样本上运行,请省略urllib部分):

#####################################
# Loading Data
#####################################
import urllib
from sklearn.feature_extraction.text import TfidfVectorizer
import nltk.stem  
raw = urllib.urlopen("https://s3.amazonaws.com/hr-testcases/597/assets/trainingdata.txt").read()
file = open("to_delete.txt","w").write(raw)
###
def extract_training():
    f = open("to_delete.txt")
    N = int(f.readline())
    X = []
    y = []
    for i in xrange(N):
        line  = f.readline()
        label,text =  int(line[0]), line[2:]
        X.append(text)
        y.append(label)
    return X,y
X_train, y_train =  extract_training()    
#############################################
# Extending Tfidf to have only stemmed features
#############################################
english_stemmer = nltk.stem.SnowballStemmer('english')

class StemmedTfidfVectorizer(TfidfVectorizer):
    def build_analyzer(self):
        analyzer = super(TfidfVectorizer, self).build_analyzer()
        return lambda doc: (english_stemmer.stem(w) for w in analyzer(doc))

tfidf = StemmedTfidfVectorizer(min_df=1, stop_words='english', analyzer='word', ngram_range=(1,1))
#############################################
# Line below takes 6-7 seconds on my machine
#############################################
Xv = tfidf.fit_transform(X_train) 

我尝试将列表X_train转换为np.array,但性能没有变化。


你可以在http://codereview.stackexchange.com/上尝试这个。 - matsjoyce
1个回答

20

毫不意外,速度慢的是NLTK:

>>> tfidf = StemmedTfidfVectorizer(min_df=1, stop_words='english', analyzer='word', ngram_range=(1,1))
>>> %timeit tfidf.fit_transform(X_train)
1 loops, best of 3: 4.89 s per loop
>>> tfidf = TfidfVectorizer(min_df=1, stop_words='english', analyzer='word', ngram_range=(1,1))
>>> %timeit tfidf.fit_transform(X_train)
1 loops, best of 3: 415 ms per loop

您可以通过使用更智能的Snowball词干提取器实现来加快此过程,例如 PyStemmer

>>> import Stemmer
>>> english_stemmer = Stemmer.Stemmer('en')
>>> class StemmedTfidfVectorizer(TfidfVectorizer):
...     def build_analyzer(self):
...         analyzer = super(TfidfVectorizer, self).build_analyzer()
...         return lambda doc: english_stemmer.stemWords(analyzer(doc))
...     
>>> tfidf = StemmedTfidfVectorizer(min_df=1, stop_words='english', analyzer='word', ngram_range=(1,1))
>>> %timeit tfidf.fit_transform(X_train)
1 loops, best of 3: 650 ms per loop

NLTK是一个教学工具包。它的设计是慢速的,因为它被优化以提高可读性。


2
这不是在Python 3.6上的 :( - Hiding
我使用字符ngram,但速度非常慢。有什么解释吗? - Captain Jack sparrow
1
没有找到名为 'Stemmer' 的模块。 - Muaaz Khalid
2
你需要运行“pip install PyStemmer”才能让“import Stemmer”正常工作。 - Luxato

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接