我正在使用WEKA分类器(J48),输入文件是一个包含3个字段的.arff文件,其中第1个字段有约27k个不同的属性,第2个字段有约500k个值。我在一台具有8GB RAM的最新款Macbook Pro上运行该分类器。我使用-Xmx参数将java堆空间增加到最大值:
显然,我的输入文件需要超过8GB的RAM。这是否意味着唯一的解决方案是拥有更强大的硬件(例如16GB的RAM或非常强大的服务器/集群)? 是否有任何解决此问题的方法?(例如缩小输入文件?如果是,你认为应该采用哪些标准进行缩小?)。还有其他的想法或建议吗?
然而,当我运行分类器(大约10分钟后)时,我会收到"异常线程 "main" java.lang.OutOfMemoryError: Java heap space"的错误提示。java -Xmx7G -cp weka-3-6-10/weka.jar weka.classifiers.trees.J48 -t myfiles/loc_linear.arff -i
显然,我的输入文件需要超过8GB的RAM。这是否意味着唯一的解决方案是拥有更强大的硬件(例如16GB的RAM或非常强大的服务器/集群)? 是否有任何解决此问题的方法?(例如缩小输入文件?如果是,你认为应该采用哪些标准进行缩小?)。还有其他的想法或建议吗?