我一直在努力弄清楚为什么会出现这个错误,但无济于事。只有导入数据时才会产生错误,导出工作正常。我正在使用CSV文件来导入产品数据,但无法使其正常工作。我已经在我的本地测试Magento设置中尝试了相同的CSV,并且它可以正常工作。有人曾遇到过这种错误吗?
在进一步调查中,我发现显示的DOCTYPE HTML代码是仪表板的HTML代码。它在此处加载仪表板。问题可能是什么?
在进一步调查中,我发现显示的DOCTYPE HTML代码是仪表板的HTML代码。它在此处加载仪表板。问题可能是什么?
我再次添加另一个答案,因为这是解决我的问题的方法。
在Profile Wizard
标签中,Number of records
选项应设置为较低的数字。我之前认为它指导入中的总记录数,但实际上它指定了一次处理多少条记录。1始终是安全的,但同时处理更多记录将使过程更快。我将其设置为100,并将php memory_limit增加到1G,一切都很好。
记录数
输入是一个分块值。它确定每次处理多少条记录(块/子集)。根据服务器和内存分配,大多数人发现它在25-50左右的范围内工作。在共享服务器上,您可能一次只能处理5-10条记录。 - Fiasco Labs你尝试使用CSV的一个小子集了吗?
我认为有一行或多行是错误的。找到这行,你就会找到错误。
Mage_Catalog_Model_Convert_Adapter_Product::parse()
(链接)中的问题数据。public function parse()
{
$batchModel = Mage::getSingleton('dataflow/batch');
/* @var $batchModel Mage_Dataflow_Model_Batch */
$batchImportModel = $batchModel->getBatchImportModel();
$importIds = $batchImportModel->getIdCollection();
foreach ($importIds as $importId) {
//print '<pre>'.memory_get_usage().'</pre>';
$batchImportModel->load($importId);
$importData = $batchImportModel->getBatchData();
/**
* Temp debug code:
*/
Mage::log(
$importData['sku'],
Zend_Log::DEBUG,
'dataflow.log', // find @ var/log/dataflow.log
true // force logging
);
$this->saveRow($importData);
}
}
我会确保您在配置文件中将导入设置的记录设置为相对较低的值,以使每个批次较小。
var/log
目录下创建了dataflow.log
文件。当我们无法通过SSH进行调试时,这真的很令人沮丧。 - Kalpeshparse
时,它会抛出错误,当我记录或打印一些东西时,它根本不起作用。奇怪的是。非常感谢您的时间@benmarks - Kalpesh
JPG
,而其他所有图像的扩展名都为jpg
。也许这导致了导入时的问题。 - Kalpesh