在机器学习中,处理分类特征时经常会遇到目标编码器(TargetEncoder)。目标编码器的作用是将每个分类特征替换为目标变量在该类别中的缩减均值。这种方法在分类特征与目标变量之间存在强关系时非常有用。为了防止过拟合,目标编码器在训练数据的编码过程中采用了内部交叉拟合方案。具体来说,就是将数据分成k份,然后使用其他k-1份数据学习到的编码来编码每一份数据。
本文通过一个示例来展示交叉拟合过程的重要性。首先,构建了一个包含三个分类特征的数据集:一个信息量丰富的中等基数特征("informative"),一个信息量不丰富的中等基数特征("shuffled"),以及一个信息量不丰富且基数较高的特征("near_unique")。首先生成信息量丰富的特征:
import numpy as np
from sklearn.preprocessing import KBinsDiscretizer
n_samples = 50_000
rng = np.random.RandomState(42)
y = rng.randn(n_samples)
noise = 0.5 * rng.randn(n_samples)
n_categories = 100
kbins = KBinsDiscretizer(n_bins=n_categories, encode="ordinal", strategy="uniform", random_state=rng, subsample=None)
X_informative = kbins.fit_transform((y + noise).reshape(-1, 1))
# 通过置换X_informative的值来移除y和箱索引之间的线性关系:
permuted_categories = rng.permutation(n_categories)
X_informative = permuted_categories[X_informative.astype(np.int32)]
接下来,生成信息量不丰富的中等基数特征,方法是置换信息量丰富的特征,并移除与目标变量的关系:
X_shuffled = rng.permutation(X_informative)
然后,生成信息量不丰富且基数较高的特征,使其与目标变量无关。将展示,没有交叉拟合的目标编码会导致下游回归器的灾难性过拟合。这些高基数特征基本上是样本的唯一标识符,通常应该从机器学习数据集中移除。在这个例子中,生成它们是为了展示目标编码器的默认交叉拟合行为如何自动缓解过拟合问题:
X_near_unique_categories = rng.choice(int(0.9 * n_samples), size=n_samples, replace=True).reshape(-1, 1)
最后,组装数据集并进行训练测试拆分:
import pandas as pd
from sklearn.model_selection import train_test_split
X = pd.DataFrame(np.concatenate([X_informative, X_shuffled, X_near_unique_categories], axis=1), columns=["informative", "shuffled", "near_unique"])
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)
在本节中,在有无编码的情况下训练了一个岭回归模型,并探索了目标编码器在有无内部交叉拟合时的影响。首先,看到在原始特征上训练的岭模型性能较低。这是因为置换了信息量丰富的特征的顺序,这意味着X_informative在原始状态下并不具有信息量:
import sklearn
from sklearn.linear_model import Ridge
# 配置转换器始终输出DataFrame
sklearn.set_config(transform_output="pandas")
ridge = Ridge(alpha=1e-6, solver="lsqr", fit_intercept=False)
raw_model = ridge.fit(X_train, y_train)
print("原始模型在训练集上的得分: ", raw_model.score(X_train, y_train))
print("原始模型在测试集上的得分: ", raw_model.score(X_test, y_test))
接下来,创建了一个包含目标编码器和岭模型的管道。该管道使用目标编码器.fit_transform,它使用交叉拟合。可以看到模型很好地拟合了数据,并泛化到了测试集:
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import TargetEncoder
model_with_cf = make_pipeline(TargetEncoder(random_state=0), ridge)
model_with_cf.fit(X_train, y_train)
print("使用CF的模型在训练集上的得分: ", model_with_cf.score(X_train, y_train))
print("使用CF的模型在测试集上的得分: ", model_with_cf.score(X_test, y_test))
线性模型的系数显示,大部分权重都在第0列的特征上,这是信息量丰富的特征。
虽然目标编码器.fit_transform使用内部交叉拟合方案来学习训练集的编码,但目标编码器.transform本身并不使用。它使用完整的训练集来学习编码,并转换分类特征。因此,可以使用目标编码器.fit后跟目标编码器.transform来禁用交叉拟合。这种编码然后传递给岭模型。
target_encoder = TargetEncoder(random_state=0)
target_encoder.fit(X_train, y_train)
X_train_no_cf_encoding = target_encoder.transform(X_train)
X_test_no_cf_encoding = target_encoder.transform(X_test)
model_no_cf = ridge.fit(X_train_no_cf_encoding, y_train)
评估了在编码时没有使用交叉拟合的模型,并看到它过拟合了:
print("未使用CF的模型在训练集上的得分: ", model_no_cf.score(X_train_no_cf_encoding, y_train))
print("未使用CF的模型在测试集上的得分: ", model_no_cf.score(X_test_no_cf_encoding, y_test))
岭模型过拟合是因为它赋予了信息量不丰富且基数极高("near_unique")和中等基数("shuffled")特征更多的权重,而不是在使用交叉拟合编码特征时。
本例展示了目标编码器的内部交叉拟合的重要性。使用目标编码器.fit_transform来编码训练数据,然后将其传递给机器学习模型是很重要的。当目标编码器是管道的一部分,并且管道被拟合时,管道将正确调用目标编码器.fit_transform,并在编码训练数据时使用交叉拟合。