本文介绍了机器学习中常用的数据集,包括玩具数据集、真实世界数据集、生成数据集以及其他数据集的加载方式。
局部异常因子(LOF)是一种无监督异常检测方法,用于计算给定数据点相对于其邻居的局部密度偏差。本文介绍了如何在scikit-learn中使用LOF进行异常检测,并展示了如何生成带有异常值的数据集,拟合模型并绘制结果。
本文介绍了如何使用scikit-learn框架来创建自定义评估器,并检查模型是否已经拟合。
本文介绍了如何使用numpy中的RandomState对象来控制随机数生成,以及其在机器学习中的应用示例。
本文通过生成的回归数据集,展示了Huber回归和岭回归在面对异常值时的不同表现,并分析了Huber回归参数epsilon对模型的影响。
本教程介绍了如何使用分类技术对数字数据集进行分类,包括KNN和逻辑回归方法的应用。
本文介绍了贝叶斯岭回归和自动相关性确定(ARD)在回归分析中的应用,包括模型的健壮性、系数的恢复、以及多项式特征扩展的使用。
本文介绍了如何使用sklearn.metrics.cluster中的contingency_matrix函数来构建描述真实标签与预测标签之间关系的矩阵。
本页面提供了一个关于如何使用scikit-learn库中的make_blobs函数来生成高斯数据簇的详细指南。
本文探讨了机器学习模型在统计关联和因果效应推断中的局限性,并通过模拟数据集来说明遗漏变量偏差对因果效应估计的影响。
本网页介绍了如何使用机器学习技术对手写数字图像进行识别,并提供了相应的代码示例。
本网页介绍了使用LassoLarsIC估计器在糖尿病数据集上进行模型选择的过程,以及如何利用AIC和BIC标准来选择最佳模型。
本文介绍了Ledoit-Wolf和OAS协方差估计器在分类问题中的应用,并通过实验比较了它们与传统线性判别分析的性能。
本文介绍了多种机器学习算法,包括BallTree、KDTree、KNeighborsClassifier、KNeighborsRegressor等,以及它们在数据点问题中的应用。
本教程展示了如何在使用加权样本的同时,预计算Gram矩阵来拟合ElasticNet模型。
局部线性嵌入(Locally Linear Embedding, LLE)是一种非线性降维技术,用于数据的可视化和分析。本文介绍了LLE的基本概念、参数设置以及如何在Python中使用。
本文介绍了如何使用LearningCurveDisplay类绘制学习曲线,并分析了朴素贝叶斯和SVM分类器的学习曲线。同时,探讨了这些预测模型的可扩展性,包括计算成本和统计准确性。
本文探讨了如何使用排列重要性来评估随机森林分类器中特征的重要性,并展示了如何处理多重共线性问题,以提高模型的准确性。
本文探讨了t-SNE技术在不同困惑度参数下对数据集形状的影响,并通过实例代码展示了如何使用t-SNE进行有效的数据降维和可视化。
本文介绍了如何在机器学习中使用模型评分函数,并处理可能出现的异常情况。
本文介绍了均方根误差(Root Mean Squared Error)回归损失的概念、计算方法以及在机器学习中的应用。
本文介绍了机器学习库scikit-learn的最新版本中新增的一些关键特性和改进,包括固定阈值分类器、阈值优化分类器、PCA性能提升等。
本网页介绍了如何使用类似NumPy的API进行数组操作,并展示了如何在scikit-learn中使用CuPy和PyTorch等库进行数据操作。
本文介绍了一种在数据分析中常用的协方差矩阵收缩算法,该算法通过调整系数来计算收缩估计值,提高模型的稳定性和准确性。
本网页展示了在数据中施加连接图以捕获局部结构的效果,以及不同链接方法对聚类结果的影响。
本文介绍了均方误差回归损失的概念、计算方法和在机器学习中的应用。
本页面介绍了弗里德曼回归问题,包括其数据集的生成方法和相关参数。
本页面展示了在鸢尾花数据集上使用不同SVM分类器的效果,包括线性和非线性模型的决策边界。
本网页探讨了梯度提升技术在不同集成学习模型中的应用,包括随机森林、直方图梯度提升树和AdaBoost等,以及它们在特征重要性、模型比较、早期停止等方面的应用。
本文介绍了如何计算接收者操作特征曲线下面积(ROC AUC)的方法,包括二进制、多类和多标签分类的应用场景。