本文介绍了在高斯分布数据中使用稳健协方差估计和马氏距离来识别异常值和进行数据聚类。
本文介绍了机器学习中常用的数据集,包括玩具数据集、真实世界数据集、生成数据集以及其他数据集的加载方式。
局部异常因子(LOF)是一种无监督异常检测方法,用于计算给定数据点相对于其邻居的局部密度偏差。本文介绍了如何在scikit-learn中使用LOF进行异常检测,并展示了如何生成带有异常值的数据集,拟合模型并绘制结果。
本文比较了非负最小二乘法(NNLS)和普通最小二乘法(OLS)在拟合线性模型时的表现,包括回归系数的比较和模型的稀疏性。
本教程介绍了如何使用交叉验证和线性模型对糖尿病数据集进行模型选择和参数调优。
介绍如何将数组转换为浮点数数组,包括参数说明、返回值和示例代码。
Scikit-learn 是一个开源的机器学习库,用于Python编程语言。本页面介绍Scikit-learn项目的起源、发展、团队成员以及如何引用和支持该项目。
本页面展示了如何使用sklearn库中的make_sparse_coded_signal函数生成稀疏编码信号,包括数据集、字典和编码矩阵的生成过程。
本文介绍了如何使用带有多项式特征的线性回归来近似非线性函数,并通过交叉验证来评估模型的过拟合或欠拟合。
本文介绍了Pinball Loss在量化回归中的应用,包括其参数设置、计算方法和示例代码。
本文介绍了SGD算法中常用的三种惩罚函数:L1、L2和弹性网络,并展示了它们在不同参数下的轮廓图。
本页面展示了如何使用Python和matplotlib库来可视化支持向量机(SVM)分类器在鸢尾花数据集上的决策边界。
本网页展示了不同在线求解器在手写数字数据集上的性能比较。
本文探讨了K-means聚类算法的不同初始化策略对运行时间和结果质量的影响,并使用真实数据集进行了实验验证。
本文介绍了使用邻域成分分析(NCA)进行降维的方法,并与PCA和LDA进行了比较。
本文介绍了Ledoit-Wolf和OAS协方差估计器在分类问题中的应用,并通过实验比较了它们与传统线性判别分析的性能。
本文介绍了如何使用交叉验证方法来评估机器学习模型的性能,并提供了详细的参数说明和示例代码。
本文介绍了聚类评估中的三个关键指标:同质性、完备性和V-度量,这些指标用于衡量聚类结果的质量。
本页面介绍了平均绝对误差回归损失的计算方法,包括参数说明、返回值、示例代码以及相关应用场景。
本页面介绍了归一化互信息(NMI)评分的概念、计算方法以及在sklearn库中的应用示例。
本页面介绍了特征选择的概念,F统计量的计算方法,以及如何在Python中使用sklearn库进行特征选择和F统计量的计算。
本文介绍了如何使用pytest的参数化装饰器来检查评估器是否符合scikit-learn的API规范。
本文比较了在贝叶斯岭回归问题中,单变量特征选择和特征聚合方法的效果。
本文介绍了R平方(R^2)回归评分函数的计算方法及其在机器学习模型评估中的应用。
本页面展示了如何在使用支持向量分类器(SVC)之前进行单变量特征选择以提高分类分数。我们使用鸢尾花数据集,并添加了36个非信息性特征。
本文介绍了如何使用卡方检验进行特征选择,以提高分类任务的性能。
本页面介绍了如何生成用于二元分类的样本数据,这些数据基于标准独立高斯分布,并根据特定的规则定义目标变量。
本文通过一个实例比较了随机森林回归器和多输出回归估计器的性能。
本文介绍了如何计算接收者操作特征曲线下面积(ROC AUC)的方法,包括二进制、多类和多标签分类的应用场景。
本页面介绍了如何构建一个3D图像中像素间的连接图,包括参数说明、代码示例和返回结果的解释。