我正在撰写一篇文档,其中应包含使用朴素贝叶斯(生成式)和逻辑回归(判别式)模型进行文本分类的关键差异。
在我的研究过程中,我遇到了朴素贝叶斯模型的定义:https://nlp.stanford.edu/IR-book/html/htmledition/naive-bayes-text-classification-1.html
“文档d属于类别c的概率被计算为……其中p(tk|c)是term tk出现在类别c的文档中的条件概率......”
当我阅读比较生成式和判别式模型时,在StackOverflow上找到了这个解释并被接受: What is the difference between a Generative and Discriminative Algorithm? “生成式模型学习联合概率分布 p(x,y),而判别式模型学习条件概率分布 p(y|x) - 这个可以理解为“给定x的情况下y的概率”。“
此时我感到困惑:朴素贝叶斯是一种生成式模型,并使用条件概率,但同时判别式模型被描述为学习条件概率,与生成式模型的联合概率不同。
请问有人可以解释一下吗?
谢谢!
当我阅读比较生成式和判别式模型时,在StackOverflow上找到了这个解释并被接受: What is the difference between a Generative and Discriminative Algorithm? “生成式模型学习联合概率分布 p(x,y),而判别式模型学习条件概率分布 p(y|x) - 这个可以理解为“给定x的情况下y的概率”。“
此时我感到困惑:朴素贝叶斯是一种生成式模型,并使用条件概率,但同时判别式模型被描述为学习条件概率,与生成式模型的联合概率不同。
请问有人可以解释一下吗?
谢谢!
p(x,y)
来计算p(y|x)
,但我仍然没有看到在我分享的朴素贝叶斯链接中使用p(x,y)
的地方;我只看到了条件概率。 - GermanCp(x,y)
,可以给我提供链接吗? - GermanCp(x,y)
是p(y|x)p(y)
的意思,这样就清楚了联合概率隐含在其中的许多内容。非常感谢! - GermanC