113得票12回答
在PyCharm中以退出码137完成的进程

当我在PyCharm中手动停止脚本时,进程以退出代码137结束。但是我没有停止脚本。仍然收到了退出代码137。问题出在哪里? Python版本为3.6,在运行xgboost.train()方法时进程结束。

88得票5回答
如何保存和加载xgboost模型?

从XGBoost指南中得知: After training, the model can be saved. bst.save_model('0001.model') The model and its feature map can also be dumped to a text f...

81得票21回答
如何在Anaconda Python(Windows平台)中安装xgboost?

我是一个新的Python用户。 我从以下链接下载了最新的Anaconda 3 2.4.1(Python 3.5): https://www.continuum.io/downloads 我的电脑配置为:Windows 10,64位,4GB RAM 在Anaconda命令提示符中'pip i...

71得票11回答
如何在xgboost中获取特征重要性?

我正在使用xgboost构建模型,并尝试使用get_fscore()查找每个特征的重要性,但它返回{} 我的训练代码如下:dtrain = xgb.DMatrix(X, label=Y) watchlist = [(dtrain, 'train')] param = {'max_depth'...

62得票4回答
XGBoost分类变量:哑变量编码 vs 编码

当使用XGBoost时,我们需要将分类变量转换为数字。 在以下两种方法之间,dummifying(虚拟化)分类变量和将分类变量从例如(a,b,c)编码为(1,2,3)有什么性能/评估指标上的差异: dummifying(虚拟化)你的分类变量 将你的分类变量从例如(a,b,c)编码为(1,...

60得票10回答
如何实现xgboost的增量训练?

问题在于我的训练数据由于大小无法放入内存中。因此,我需要一种方法,首先在整个训练数据集上构建一棵树,计算残差,然后构建另一棵树(类似于梯度提升树的方法)。显然,如果我在某个循环中调用model = xgb.train(param, batch_dtrain, 2),那么这并没有帮助,因为在这种...

54得票1回答
XGBoost如何进行并行计算?

XGBoost使用增量训练法,其中它对先前模型的残差进行建模。 虽然这是顺序的,但是它如何进行并行计算呢?

52得票5回答
Python中XGBoost XGBClassifier的默认值

我试图使用XGBoost分类器对某些二进制数据进行分类。当我只是简单地使用默认设置(如下所示)时:clf = xgb.XGBClassifier() metLearn=CalibratedClassifierCV(clf, method='isotonic', cv=2) metLearn.f...

49得票18回答
如何在Windows平台上安装Python的xgboost包?

http://xgboost.readthedocs.org/en/latest/python/python_intro.html xgboost主页上说,安装XGBoost需要按照以下步骤进行: 在项目的根目录中运行 make 在python-package目录下运行 python ...

49得票2回答
XGBoost包中的特征分数/重要性是如何计算的?

命令 xgb.importance 返回由f score度量的特征重要性图表。 这个 f score 表示什么,它是如何计算的? 输出: 特征重要性图表