L1正则化逻辑回归路径

机器学习中,正则化是一种防止模型过拟合的技术。L1正则化,也称为Lasso正则化,通过在损失函数中添加一个惩罚项来实现,该惩罚项是模型系数的绝对值之和。这种方法不仅有助于防止过拟合,还能产生稀疏的模型系数,即许多系数将被设置为零,从而实现特征选择的效果。

在本例中,使用Python的scikit-learn库来训练一个L1正则化逻辑回归模型。数据集来源于鸢尾花数据集,但只选择了其中的两个类别进行二分类问题的研究。模型的正则化强度从最强到最弱排列,收集了模型的四个系数,并将其绘制成正则化路径图。在图的左侧(强正则化),所有系数都精确地为0。随着正则化的逐渐放松,系数可以一个接一个地获得非零值。

选择liblinear求解器是因为它能够有效地优化带有非光滑、稀疏诱导的L1惩罚的逻辑回归损失。还设置了较低的容忍度值,以确保在收集系数之前模型已经收敛。此外,使用warm_start=True,这意味着模型的系数被重用来初始化下一个模型拟合,以加速全路径的计算。

数据加载与预处理

首先,需要加载数据集并对数据进行预处理。从scikit-learn库中导入iris数据集,然后只选择其中的目标类别不等于2的数据。接着,将特征数据X除以其最大值进行归一化,以加快收敛速度。

from sklearn import datasets iris = datasets.load_iris() X = iris.data y = iris.target X = X[y != 2] y = y[y != 2] X /= X.max()

计算正则化路径

接下来,使用numpy和scikit-learn库中的相关函数来计算正则化路径。首先使用l1_min_c函数来计算C值的序列,然后创建一个LogisticRegression模型,并设置penalty为"l1",solver为"liblinear",以及其他必要的参数。然后,遍历C值的序列,对每个C值拟合模型,并将系数添加到列表中。

import numpy as np from sklearn import linear_model from sklearn.svm import l1_min_c cs = l1_min_c(X, y, loss="log") * np.logspace(0, 10, 16) clf = linear_model.LogisticRegression(penalty="l1", solver="liblinear", tol=1e-6, max_iter=int(1e6), warm_start=True, intercept_scaling=10000.0) coefs_ = [] for c in cs: clf.set_params(C=c) clf.fit(X, y) coefs_.append(clf.coef_.ravel().copy()) coefs_ = np.array(coefs_)

最后,使用matplotlib库来绘制正则化路径图。绘制了以10为底的C值的对数与系数之间的关系,并设置了图表的标题、轴标签和显示设置。

import matplotlib.pyplot as plt plt.plot(np.log10(cs), coefs_, marker="o") ymin, ymax = plt.ylim() plt.xlabel("log(C)") plt.ylabel("Coefficients") plt.title("Logistic Regression Path") plt.axis("tight") plt.show()

通过这个图表,可以直观地看到随着正则化强度的减弱,模型系数是如何逐渐从零变化的。这种可视化方法对于理解正则化对模型系数的影响非常有帮助。

沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:17898875485