本文介绍了在高斯分布数据中使用稳健协方差估计和马氏距离来识别异常值和进行数据聚类。
本文介绍了梯度提升树中OOB估计的概念、计算方法以及如何使用OOB估计来确定模型的最佳迭代次数。
本文通过Elastic-Net回归模型探讨了正则化参数对训练和测试数据集性能的影响,并使用解释方差R^2作为性能度量。
本文介绍了如何使用make_moons函数生成两个交错的半圆形数据集,用于可视化分类和聚类算法的效果。
本文通过乳腺癌数据集演示了自训练分类器在不同阈值设置下的效果。
本文介绍了如何在包含噪声的数据集上提高分类模型的精度,通过添加非信息性特征到鸢尾花数据集,并使用支持向量机(SVM)进行分类,对比了单变量特征选择前后模型的精度和权重变化。
本文介绍了一种在特征空间分析中使用的稳健方法,通过MeanShift聚类算法自动估计带宽,并使用matplotlib进行数据可视化。
本文详细介绍了LARS路径算法的工作原理和参数设置,包括算法的目标函数、参数详解以及代码示例。
本页面介绍了如何使用sklearn库对数组或稀疏矩阵进行阈值化处理,包括参数说明、返回值以及示例代码。
本文介绍了如何使用sklearn库中的ColumnTransformer和make_column_selector函数来选择数据集中的特定列进行预处理。
本文介绍了随机化算法在主成分分析中的应用,包括算法原理、参数设置和代码示例。
本文探讨了KMeans和MiniBatchKMeans聚类算法的不同初始化策略对算法收敛性的影响,并提供了代码示例。
本文介绍了多种集成学习算法,包括AdaBoost、Bagging、ExtraTrees、Gradient Boosting、Isolation Forest、Random Forest、Stacking和Voting等。
本文介绍了如何使用马氏距离来衡量高斯分布数据中单个观测值与分布模式之间的距离,并讨论了稳健协方差估计器在处理异常值时的优势。
本文介绍了如何在鸢尾花数据集上使用集成树模型绘制决策面。
本页面展示了如何使用随机梯度下降(SGD)训练线性支持向量机(SVM)分类器,并绘制出在两个类别可分数据集中的最大分隔超平面。
本文介绍了如何在Python的scikit-learn库中使用不同的交叉验证对象,并提供了一个可视化示例来比较它们的行为。
本文介绍了AdaBoost算法在多标签分类问题上的应用,包括数据集的创建、模型训练、性能分析以及算法的收敛性。
本页面介绍了如何计算距离矩阵,包括输入参数、计算方法以及多线程计算的应用。
本文介绍了如何使用核主成分分析(KernelPCA)对图像进行去噪处理,并通过比较精确重建和核PCA重建的结果,展示了去噪效果。
本页面介绍了如何对CSC/CSR格式的稀疏矩阵进行特征缩放,通过乘以特定的缩放因子来实现。
本网页展示了如何计算Lasso、Lasso-LARS和Elastic Net正则化路径上的系数。
本页面介绍了如何生成用于二元分类的样本数据,这些数据基于标准独立高斯分布,并根据特定的规则定义目标变量。
本文介绍了如何使用sklearn库中的multilabel_confusion_matrix函数来计算多标签混淆矩阵,用于评估分类模型的准确性。
本文探讨了高斯过程回归(GPR)在估计数据噪声水平方面的能力,并强调了核函数超参数初始化的重要性。
本文介绍了非负矩阵分解(NMF)技术,这是一种用于数据降维、源分离或主题提取的数学方法。
本文通过可视化不同分类器的决策边界,帮助理解各种机器学习算法在不同数据集上的表现。
本网页展示了如何使用信息论标准对高斯混合模型(GMM)进行模型选择,包括协方差类型和模型中组件的数量。
本网页展示了高斯混合模型(GMM)中不同协方差类型在鸢尾花数据集上的性能比较。
本文介绍了如何使用决策树进行多输出回归,并通过调整树的最大深度来控制模型的复杂度。