TensorFlow 实现 Seq2seq 情感分析

3

我目前正在使用Tensorflow Seq2seq模型尝试实现情感分析。我的想法是将IMDB评论馈送给编码器,[Pad]或[Go]馈送给解码器,将[neg]/[pos]馈送给目标。我的大部分代码与seq2seq翻译的示例相似。但我得到的结果非常奇怪。对于每个批处理,结果要么全部是[neg],要么全部是[pos]。

"编码器输入:我几乎立刻入迷了。[pad][pad][pad]"

"解码器输入:[pad]"

"目标:[pos]"

由于这个结果非常特殊,我想知道有没有人知道会导致这种情况发生的原因?

1个回答

3
我建议尝试使用更简单的架构-RNN或CNN编码器,将其提供给逻辑分类器。这些架构在情感分析(亚马逊评论,yelp评论等)方面表现非常出色。
您可以参考此处的模型示例-各种编码器(LSTM或卷积)针对单词和字符进行处理。

感谢您的建议。经过几个小时的运行,模型实际上起作用了。但仍然对训练开始时的输出感到好奇。一定会尝试其他更简单的架构。 - Hanyu Guo
你能更新一下链接吗?看起来是一个有趣的资源 :) - NaN

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接