本文介绍了在高斯分布数据中使用稳健协方差估计和马氏距离来识别异常值和进行数据聚类。
本文比较了Theil-Sen估计器与OLS和RANSAC估计器在处理异常值时的性能,并提供了Python代码示例。
本页面展示了如何使用Python和scikit-learn库中的VotingClassifier来计算并可视化不同分类器对同一样本的概率预测结果。
本文比较了不同异常检测算法在2D数据集上的表现,包括OneClassSVM、SGDOneClassSVM、EllipticEnvelope、IsolationForest和LocalOutlierFactor等。
本页面展示了如何使用Python中的sklearn库来计算Lasso和弹性网络的正则化路径,并比较了标准和正则化版本的效果。
本文介绍了如何使用因子分析和主成分分析(PCA)来探索鸢尾花数据集中的潜在模式,并展示了如何通过旋转来优化数据的可视化效果。
本文比较了核岭回归(Kernel Ridge Regression, KRR)和支持向量回归(Support Vector Regression, SVR)两种方法,它们都利用核技巧学习非线性函数。这两种方法在损失函数上有差异,KRR通常在中等规模数据集上训练速度更快,但预测时速度较慢。
本网页展示了不同随机学习策略在多层感知器分类器中的表现,包括SGD和Adam算法,并对比了不同学习率和动量参数对模型性能的影响。
本文介绍了平均绝对百分比误差(MAPE)的概念、计算方法以及在sklearn库中的使用示例。
本文介绍了如何使用集成学习中的投票分类器对鸢尾花数据集进行分类,并展示了不同分类器预测结果的对比。
本文介绍了加州房屋数据集的基本信息,包括数据维度、特征描述以及如何使用scikit-learn库加载和操作该数据集。
本页面解释了如何根据目标数据识别数据类型,包括连续型、二进制、多类、多输出和多标签等类型。
本文探讨了高斯混合模型在非高斯随机变量混合数据集上的应用,并通过贝叶斯方法比较了不同模型的性能。
本文介绍了一种用于衡量两个聚类结果相似度的指标,即Rand指数。通过比较真实类别标签与预测聚类标签之间的一致性来计算相似度得分。
本文介绍了基于特征矩阵的Ward聚类算法,这是一种递归合并聚类方法,旨在最小化簇内方差。
本页面展示了如何使用Python中的逻辑回归模型对鸢尾花数据集进行分析,并可视化其决策边界。
本页面展示了不同度量方式对层次聚类算法的影响,包括欧几里得距离、曼哈顿距离和余弦距离。
本页面介绍了如何在Python中使用稀疏矩阵计算均值和方差,并提供了示例代码。
本网页展示了不同机器学习算法在手写数字数据集上的性能比较。
本文通过Iris数据集演示了标签传播、自我训练和支持向量机(SVM)在决策边界生成上的应用。
本文介绍了如何使用标签传播模型在只有少量标签的情况下对手写数字数据集进行分类。
本页面介绍了Brier得分的概念、计算方法和应用场景,以及如何使用Python的sklearn库来计算Brier得分。
本页面介绍了如何生成一个包含内圈和外圈的圆形数据集,用于可视化聚类和分类算法的效果。
本文介绍了如何使用受限玻尔兹曼机(RBM)进行特征提取,并结合逻辑回归分类器进行手写数字识别。
本网页展示了如何使用scikit-learn库中的cross_val_predict函数与PredictionErrorDisplay工具来可视化预测误差。
本指南旨在为开发者提供机器学习可视化API的详细介绍,包括如何使用API进行数据可视化和绘图工具的开发与维护。
本文比较了核岭回归(Kernel Ridge Regression)和支持向量回归(Support Vector Regression)在不同数据集上的表现,包括它们的模型形式、损失函数、训练和预测时间。
本文介绍了零一分类损失函数的计算方法,包括参数说明、返回值以及在多标签分类中的应用。
本文介绍了如何使用支持向量机(SVM)分类器和线性核来绘制一个两类别可分离数据集中的最大边界超平面。
本文介绍了距离度量和核函数在机器学习中的重要性,包括它们的定义、性质以及在不同算法中的应用。