我想了解XGBoost在多类分类中使用的损失函数。我在这个问题中找到了适用于二元分类的逻辑分类损失函数(在此问题中)。
我曾认为对于多类情况,它可能与GBM相同(针对K类)(可以在此处查看),其中y_k=1,如果x的标签是k,否则为0,并且p_k(x)是softmax函数。然而,我使用此损失函数进行了一阶和二阶梯度计算,但海森矩阵与代码(在SoftmaxMultiClassObj的GetGradient函数中)中定义的矩阵不匹配,差了一个常数2。
请问使用的是哪种损失函数?
提前感谢您。
我曾认为对于多类情况,它可能与GBM相同(针对K类)(可以在此处查看),其中y_k=1,如果x的标签是k,否则为0,并且p_k(x)是softmax函数。然而,我使用此损失函数进行了一阶和二阶梯度计算,但海森矩阵与代码(在SoftmaxMultiClassObj的GetGradient函数中)中定义的矩阵不匹配,差了一个常数2。
请问使用的是哪种损失函数?
提前感谢您。