Pentaho Kettle“使用批量更新插入”选项

4
请问有人能解释一下,使用Pentaho Kettle表输出或更新步骤的“用于插入的批量更新”选项存在哪些缺陷或问题吗? 我的一个同事认为,如果将提交大小设置为1000,并且这1000条记录中的任何一条无法被插入/更新,则整个批次的1000条记录都将被省略,无法更新到该表中。我不知道这是真还是假,目前也无法自己测试。
如果未启用此选项,我继续使用更高的提交大小,例如1000会发生什么呢?
1个回答

1

这实际上只是数据库提交大小的问题。最好的做法是将其设置在100到2000之间。

如果设置得太小,会减慢转换速度,同样,如果设置得太大,它可能会减慢转换速度甚至耗尽内存。你需要调整大小,因为这只是试错。

至于错误,无论如何,一旦达到至少一个错误记录,你的转换都会失败,至少在4.1版本中是这样。


那么,您的意思是说,在4.1版本之前,如果批处理中的一个记录失败,整个批处理都会失败。我正在使用CE 5.0.1。因此,我可以使用适度的提交大小进行操作,例如每批更新200到500个记录?我们每天/每周的交易记录大小可能在500到5000之间。 - RVandakar

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接