26得票8回答
从`y`的唯一值推断出的无效类别。期望值为:[0 1 2 3 4 5],实际值为:[1 2 3 4 5 6]。

我使用了XGB分类器训练数据集,但本地出现了错误。在Colab上它可以正常工作,而且我的朋友们用同样的代码也没有任何问题。 从y的唯一值推断无效的类。期望:[0 1 2 3 4 5],得到:[1 2 3 4 5 6] 这是我的代码,但我猜这不是原因。start_time = time.time...

16得票2回答
XGBoost 的损失函数和评估指标

我现在对XGBoost中使用的损失函数感到困惑。以下是我的疑问: 我们有objective参数,它是需要被最小化的损失函数;eval_metric参数:用于表示学习结果的指标。这两个是完全无关的(如果不考虑分类问题中仅可使用logloss和mlogloss作为eval_metric)。这样...

14得票2回答
XGBoost用于多分类和不平衡数据的处理

我正在处理一个包含3个类别[0,1,2]的分类问题,类别分布不平衡,如下所示。 我想使用Python中的XGBClassifier来解决这个分类问题,但是模型不响应class_weight的调整,而是偏向于多数类0,而忽略少数类1,2。除了class_weight以外,还有哪些超参数可以帮助...

9得票2回答
Python的XGBoost分类器无法进行“predict”:TypeError:数据类型不支持。

我有这样的数据集: print(X_test.dtypes) metric1 int64 rank float64 device_type int8 NA_estimate ...

8得票1回答
如何绘制XGBoost评估指标?

我有以下代码 eval_set = [(X_train, y_train), (X_test, y_test)] eval_metric = ["auc","error"] 在接下来的部分,我正在训练XGBClassifier模型。 model = XGBClassifier() %t...

7得票1回答
Shap值维度在随机森林和XGBoost中不同,原因是什么?有什么方法可以解决吗?

从树解释器的.shap_values(some_data)返回的SHAP值,对于XGB和随机森林的结果维度/结果不同。我已经尝试过了解原因,但似乎找不到原因或方法,也没有在任何Slundberg(SHAP专家)的教程中找到解释。 我是否错过了某些原因? 是否有一些标志可以返回像其他模型那样...

7得票2回答
XGBoost中的自定义损失函数未进行更新。

背景 我试图为XGBoost二元分类器使用自定义损失函数。 我的想法是在XGBoost中实现soft-Fbeta损失函数,关于这个我在这里链接上读到了。简单来说:不使用标准的对数损失函数,而是使用直接优化Fbeta得分的损失函数。 注意事项 当然,Fbeta本身不可微分,因此不能直接使...