目录
一 主要特点:
1 类别变量编码-Order Target Statistics方法
2 文本型变量编码处理
3 类别型特征交叉-FM
4 无偏提升-Ordered Boosting
5 使用对称树作为基模型,加速运行
6 不一样的缺失值处理
二 原理详解
1 类别变量处理-Order Target Statistics方法
2 文本型变量处理
3 特征交叉-FM
4 无偏提升-Ordered Boosting
5 对称树
6 缺失值处理
三 官网示例
1 CatBoostRegressor:
2 CatBoostClassifier 含类别型变量
3 使用Pools数据类型
四 catboost参数详解及实战
对于类别型变量而言,xgb需要先自行编码、才能输入模型;lgb极大地简化了一步,只需要将相应的变量列转化为category、或指定类别型变量名即可输入模型;catboost进一步处理,不仅嵌入了对类别型变量的处理,并附带类别型特征交叉功能、还加入了部分文本数据的处理。本文深入浅出地详解catboost,全篇通俗易懂帮助大家掌握原理。
官网文档:https://catboost.ai/en/docs/
Target Statistics 是很常用的一种单调性编码方法,以音乐流派特征(包含rock、indie、pop等值)为例,rock的编码结果即为rock样本对应的平均bad_rate(y标签均值;y=1样本比例等),这样对每个特征值bad_rate越高、编码结果越大。
Target Statistics编码有一个小问题,类别型特征的部分特征值的样本量很少时,极端情况下假设pop的样本量只有1个、标签为1,则pop特征值的编码结果为1,但是当我们划分训练测试集时、训练集pop特征值的编码结果为1,而测试集中存在多个pop样本、且对应的y标签bad_rate远小于1时,这样就存在了以点概面的问题;针对这个问题可以在上式中添加整体数据集的bad_rate让编码结果扁平化、更加稳定
Order Target Statistics方法,以例子介绍更加清晰直观
(1)fn特征为音乐流派,包含rock、indie、pop等值,把该列类别型变量转化为数值型变量
(2)对数据集随机排列,生成多个随机序列的数据集(默认为4个)
(3)假设此时所有样本中rock、indie、pop对应的标签均值(y=1的比例)均为0.05,类别型变量按照以下公式编码为数值型变量
countInClass:当前序列的数据集中,x样本之前所有样本中,同类别、且同y标签的样本频数;以上图为例,第4条样本(Object=4)fn=rock,之前三条样本中rock有2条、同为rock且y标签一致的有1条,所以此处countInClass=1
prior:先验值,二分类下等同于当前特征值对应标签均值(风控中为bad_rate),此处即为0.05
totalCount:当前序列的数据集中,x样本之前所有样本中,同类别样本频数;以上图为例,第4条样本(Object=4)fn=rock,之前三条样本中rock有2条,则此处totalCount=2
综上,以上图第4条样本(Object=4)为例,avg_target=(1+0.05)/(2+1)=0.35
在上面例子中可以看到,同一特征值、同样的y标签下,前后的编码结果差异可能会很大,如第1、7条样本,此时排序越靠前的样本、对应的编码越不合理,因为该条样本之前没有多少样本作为编码的基础。
针对这个问题,catboost对数据随机排序多次(在第2步中提到过)、生成多个随机序列的数据集,在每个子模型中,会随机选择一个序列的数据集进行编码,这样可以缓解排序在前面样本的类别变量编码不合理的问题
(1)分词-将原始文本作为字符串,按照文本空格分词(以英文空格分词为例)
(2)生成词典:
token type包含两种字母级Letter、词级Word
对于文本“abra cadabra”,Letter分词结果{a, b, c, d, r};Word分词结果{'abra', 'cadabra'}
对于整列的文本数据,分词之后所有唯一词组成词典、并用索引对词典的词进行编码
(3)字符串转数字编码
对于文本数据列:
根据空格进行分词
汇总生成词典
数值化编码
(4)数值特征
数值特征依赖于分词结果,支持以下几种形式
a、词袋Bag of words:反映是否包含某个词(词编码)的布尔特征,生成的特征数量等同于词典大小
b、top_tokens_count:指定词频top的n个词,生成相应的布尔特征,生成的特征数量等同于n
c、朴素贝叶斯:多项式朴素贝叶斯模型,生成的特征数量等同于y标签的类别数;为了避免y标签信息泄露(穿越),这个模型会在多个数据集上在线计算生成(类似于CTR估计)
d、BM25:搜索引擎用于排名目的的一种函数,用于估计文档的相关性。为了避免目标泄漏,该模型在多个数据集排列上在线计算(类似于CTR估计)
顾名思义,Catboost的主要贡献点就在类别型变量上,不仅嵌入了支持类别型变量的编码转换,还支持类别型变量的特征交叉、生成高阶交叉特征(支持任意阶数交叉,可通过参数限制最高阶数)
catboost子树分裂时,根结点的分裂特征会从原始的数值型变量和类别型编码过后的变量中选择,之后的分裂过程中,分裂特征会从包含交叉特征的全部变量中选择
例子:musical style和musical genre的二阶交叉特征
引子,blending模型融合的思想大致是这样的,第一层先使用train1数据集构建n个模型,然后使用这些模型对另一批样本train2预测打分、得到n组模型分特征;第二层再使用train2数据集(特征集中包含n组模型分特征)训练模型。其中在第二层的模型训练中更换数据集是为了避免两层模型对同一个训练集数据过度学习、而造成过拟合。
在串行训练下,xgb、lgb在训练后面的树时,需要计算模型在所有样本上的一阶梯度和二阶梯度、用于训练后面的树;其中问题也就是子树对于同一批样本训练的结果、再次用于下一步的残差训练,存在对同一个训练集数据过度学习、而造成过拟合的风险。
catboost训练的每一颗子树,都使用的是其中一个随机排序过后的数据集,对于单个样本、只使用序号在它前面的样本训练子树,然后用模型来计算样本上的一阶梯度和二阶梯度、构建后面的树。在这个思路下,可以减少梯度的估计误差。对应参数:boosting_type,取值Ordered(排序梯度提升)、Plain(经典梯度提升)
catboost使用对称决策树作为子树,以y轴对称,分裂生成的每一层左右两侧节点(分裂特征、分裂节点)相同,一方面可以在一定程度上避免过拟合,另一方面可以加速预测
xgb训练时会把缺失值分别放在左侧子节点和右侧子节点结算信息增益、保留增益较大的方向(详情可参考历史文章);与xgb不同,catboost对于缺失值的处理三个模式:
(1)Forbidden:禁用缺失值,当包含缺失值的数据集用于训练catboost模型时会报错
(2)Min:缺失值被处理为该列的最小值,这样可以让树模型将缺失值和其他值分列开
(3)Max:缺失值被处理为该列的最大值,这样可以让树模型将缺失值和其他值分列开
from catboost import CatBoostRegressor
# Initialize data
train_data = [[1, 4, 5, 6],
[4, 5, 6, 7],
[30, 40, 50, 60]]
eval_data = [[2, 4, 6, 8],
[1, 4, 50, 60]]
train_labels = [10, 20, 30]
# Initialize CatBoostRegressor
model = CatBoostRegressor(iterations=2,
learning_rate=1,
depth=2)
# Fit model
model.fit(train_data, train_labels)
# Get predictions
preds = model.predict(eval_data)
from catboost import CatBoostClassifier
# Initialize data
cat_features = [0, 1]
train_data = [["a", "b", 1, 4, 5, 6],
["a", "b", 4, 5, 6, 7],
["c", "d", 30, 40, 50, 60]]
train_labels = [1, 1, -1]
eval_data = [["a", "b", 2, 4, 6, 8],
["a", "d", 1, 4, 50, 60]]
# Initialize CatBoostClassifier
model = CatBoostClassifier(iterations=2,
learning_rate=1,
depth=2)
# Fit model
model.fit(train_data, train_labels, cat_features)
# Get predicted classes
preds_class = model.predict(eval_data)
# Get predicted probabilities for each class
preds_proba = model.predict_proba(eval_data)
# Get predicted RawFormulaVal
preds_raw = model.predict(eval_data, prediction_type='RawFormulaVal')
from catboost import CatBoostClassifier, Pool
train_data = Pool(
[
[[0.1, 0.12, 0.33], [1.0, 0.7], 2, "male"],
[[0.0, 0.8, 0.2], [1.1, 0.2], 1, "female"],
[[0.2, 0.31, 0.1], [0.3, 0.11], 2, "female"],
[[0.01, 0.2, 0.9], [0.62, 0.12], 1, "male"]
],
label = [1, 0, 0, 1],
cat_features=[3],
embedding_features=[0, 1]
)
eval_data = Pool(
[
[[0.2, 0.1, 0.3], [1.2, 0.3], 1, "female"],
[[0.33, 0.22, 0.4], [0.98, 0.5], 2, "female"],
[[0.78, 0.29, 0.67], [0.76, 0.34], 2, "male"],
],
label = [0, 1, 1],
cat_features=[3],
embedding_features=[0, 1]
)
model = CatBoostClassifier(iterations=10)
model.fit(train_data, eval_set=eval_data)
preds_class = model.predict(eval_data)
catboost参数详解及实战(强推)
获取更多理论知识与代码分享,欢迎关注公众号:Python风控模型与数据分析