GBDT预测时每一棵树是否能并行
展开全部
gbdt直接概率具体题主参见"Greedy function approximation: a gradient boosting machine" section 4.5 two class logistic regression. 即使单独使用gbdt达比较高准确率同问题需要注意比用down sampling处理class imbalance预测结calibration等等
同gdbt用做non-linear feature transformation. 具体说于每input instance其落每棵树哪叶作01 feature 比两棵数 T1T2
T1 T2
/ \ / \
l_11(x) l_12 l_21 l_22(x)
1 0 0 1
training instance xT1落l_12T2落l_22
我其变换组0,1 feature [1,0,0,1]
我些0,1 feature 跟其feature结合起再用linear classifier 比LR做类
Facebook AdsCTR prediction使用述式 具体细节题主参考篇paper Practical Lessons from Predicting Clicks on Ads at Facebook (). 其包括用gdbt跟gdbt+LR performance比较
同gdbt用做non-linear feature transformation. 具体说于每input instance其落每棵树哪叶作01 feature 比两棵数 T1T2
T1 T2
/ \ / \
l_11(x) l_12 l_21 l_22(x)
1 0 0 1
training instance xT1落l_12T2落l_22
我其变换组0,1 feature [1,0,0,1]
我些0,1 feature 跟其feature结合起再用linear classifier 比LR做类
Facebook AdsCTR prediction使用述式 具体细节题主参考篇paper Practical Lessons from Predicting Clicks on Ads at Facebook (). 其包括用gdbt跟gdbt+LR performance比较
本回答被提问者采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询