局部异常因子(LOF)是一种无监督异常检测方法,用于计算给定数据点与其邻居的局部密度偏差。本网页介绍了如何使用LOF进行异常检测,包括生成带有异常值的数据、模型拟合、结果绘图等步骤。
本文讨论了如何从少量样本中估计概率模型的精度矩阵,包括高斯模型的参数化、数据采样、以及不同估计器的性能比较。
本页面介绍了如何生成具有钟形奇异值分布的低秩矩阵,这种矩阵在实际应用中非常常见,如面部灰度图像和从网络爬取的文本文档的TF-IDF向量。
本网页介绍了Python中使用条件装饰器来控制方法的可用性。
本文介绍了机器学习中常用的数据集,包括玩具数据集、真实世界数据集、生成数据集以及其他数据集的加载方式。
本文比较了随机森林(RF)和直方图梯度提升树(HGBT)模型在回归数据集上的得分和计算时间。
本网页介绍了如何使用RBFSampler和Nystroem近似RBF核函数的特征映射,并在手写数字数据集上使用SVM进行分类。比较了在原始空间中使用线性SVM、使用近似映射的线性SVM以及核化SVM的结果。
本页面展示了如何使用Python和matplotlib库来可视化不同的机器学习损失函数,包括零一损失、合页损失、感知器损失等。
本文介绍了数据科学中无监督学习的各种技术,包括降维、聚类、双聚类、信号分解、协方差估计、异常检测和密度估计等。
本文介绍了使用线性、多项式和径向基函数(RBF)核的支持向量回归(SVR)模型,并提供了一个一维数据回归的示例。
本文介绍了一种在数据中存在缺失值时计算欧几里得距离的方法,包括算法原理、参数说明、代码示例和应用场景。
本页面介绍了如何生成一个多维高斯分布的分类数据集,包括参数设置和代码示例。
本文比较了在20newsgroups数据集上,使用L1正则化的多类别逻辑回归与一对一逻辑回归的性能。
本文介绍了多种集成学习算法,包括AdaBoost、Bagging、ExtraTrees、Gradient Boosting、Isolation Forest、Random Forest、Stacking和Voting等。
本文介绍了一种在随机梯度下降中使用早停策略来优化线性模型的方法,并通过实验比较了不同停止准则对模型性能的影响。
本网页介绍了如何使用PCA和核PCA对USPS数字数据集进行去噪和重建。
本文介绍了如何使用scikit-learn库中的管道和列转换器来构建和可视化复杂的机器学习模型。
本文介绍了线性判别分析(LDA)和二次判别分析(QDA)在不同数据集上的表现比较,并通过数据可视化展示了两种算法的决策边界和分类效果。
本文介绍了如何使用Pipeline和GridSearchCV进行降维和模型选择,并通过代码示例展示了PCA、NMF和特征选择技术的应用。
本网页介绍了如何使用在线学习算法处理大型图像数据集,通过分块加载和提取图像块,使用MiniBatchKMeans进行聚类分析。
本文介绍了在使用 scikit-learn 时,如何高效地利用 Cython 进行开发,包括性能优化、OpenMP 使用、类型定义等实用技巧。
本文介绍了无监督学习中的降维技术,包括主成分分析(PCA)、随机投影和特征聚合等方法,并讨论了它们在数据预处理中的应用。
本文介绍了梯度提升树模型中早停技术的应用,包括防止过拟合、提高训练效率,并以加州房价数据集为例进行演示。
本文探讨了在使用支持向量机进行分类时,如何调整正则化参数C以适应不同数量的训练样本。
本网页介绍了如何使用随机森林分类器处理具有多重共线性特征的数据集,并计算特征的重要性。
本文介绍了如何使用不同的嵌入技术对数字数据集进行处理,并比较了各种方法的效果。
本文比较了随机森林(RF)和直方图梯度提升(HGBT)模型在回归数据集上的得分和计算时间。
本页面展示了如何在线性支持向量分类器(LinearSVC)中获取并可视化支持向量。
本文介绍了DBSCAN和HDBSCAN两种聚类算法,并比较了它们在特定数据集上的表现,同时评估了HDBSCAN对某些超参数的敏感性。
本网页展示了如何使用基于哈维森距离度量的布朗树对地理空间数据进行核密度估计。