机器学习分类器与回归器概览

本文介绍了多种机器学习中的分类器和回归器,包括线性分类器、回归器、变量选择模型、鲁棒回归器以及广义线性模型等。

鸢尾花数据集的因子分析

本文介绍了如何使用因子分析和主成分分析(PCA)来探索鸢尾花数据集中的潜在模式,并展示了如何通过旋转来优化数据的可视化效果。

网格搜索与连续减半搜索比较

本文比较了在支持向量机(SVC)估计器中,使用连续减半搜索(HalvingGridSearchCV)和网格搜索(GridSearchCV)进行参数搜索的效果,并展示了两者的效率和准确性。

稀疏图排序算法

本页面介绍一种用于排序稀疏图的算法,该算法确保每一行的值按照递增顺序存储。

数字分类练习教程

本教程介绍了如何使用分类技术对数字数据集进行分类,包括KNN和逻辑回归方法的应用。

scikit-learn新特性介绍

本文介绍了scikit-learn库的最新版本中引入的一些关键特性,包括对分类数据的支持、改进的内存和运行时间效率等。

模型特征重要性分析

本文介绍了如何通过随机排列特征值的方法来评估模型中各个特征的重要性,并探讨了该方法的优势和局限性。

最近邻分类与邻域成分分析

本文介绍了使用最近邻分类器和邻域成分分析对数据进行分类的方法,并展示了如何绘制决策边界。

约翰逊-林登斯特劳斯引理与随机投影

本网页介绍约翰逊-林登斯特劳斯引理,并通过随机投影技术展示如何在保持数据对之间距离的同时降低数据集的维度。

使用scikit-learn的set_output方法

本文介绍了如何在scikit-learn库中使用set_output方法来配置模型输出为pandas DataFrame格式,并提供了详细的代码示例。

K-Means++ 初始质心选择示例

通过sklearn.cluster.kmeans_plusplus函数生成聚类初始种子的示例,展示了K-Means++初始化方法的输出结果。

均方对数误差回归损失

本页面介绍了均方对数误差回归损失的概念、参数、返回值以及使用示例。

半监督学习在乳腺癌数据集上的应用

本文介绍了半监督学习中的自我训练分类器在乳腺癌数据集上的应用,分析了不同阈值对分类器性能的影响。

高斯混合模型密度估计

本页面展示了如何使用Python和scikit-learn库来生成并可视化两个不同中心和协方差矩阵的高斯分布混合的密度估计。

归一化折扣累积增益(NDCG)计算方法

本文介绍了归一化折扣累积增益(NDCG)的概念、计算方法以及在机器学习中的应用。

不同聚类算法的比较分析

本文通过生成的二维数据集,比较了多种聚类算法的特性和效果,包括参数敏感度和对不同数据结构的适应性。

邻域成分分析示例

本示例展示了如何使用邻域成分分析(NCA)来学习一个距离度量,以最大化最近邻分类的准确性。

机器学习算法性能比较

本网页展示了不同机器学习算法在手写数字数据集上的性能比较。

亲和力传播聚类算法演示

本页面展示了亲和力传播聚类算法的实现过程,包括数据生成、算法应用、结果评估和可视化展示。

局部线性嵌入分析

局部线性嵌入(Locally Linear Embedding, LLE)是一种非线性降维技术,用于数据的可视化和分析。本文介绍了LLE的基本概念、参数设置以及如何在Python中使用。

数据可视化:混淆矩阵、ROC曲线和精确率召回率曲线

本页面介绍如何使用Python中的sklearn库进行数据可视化,包括混淆矩阵、ROC曲线和精确率召回率曲线的绘制方法。

K-Means聚类算法演示

本页面展示了K-Means聚类算法在手写数字数据集上的应用,包括不同初始化策略的比较、聚类质量评估以及结果的可视化展示。

高斯过程回归中的噪声水平估计

本文探讨了高斯过程回归(GPR)在估计数据噪声水平方面的能力,并强调了核函数超参数初始化的重要性。

协方差矩阵收缩算法

本文介绍了一种在数据分析中常用的协方差矩阵收缩算法,该算法通过调整系数来计算收缩估计值,提高模型的稳定性和准确性。

高斯混合模型选择

本网页展示了如何使用信息论标准对高斯混合模型(GMM)进行模型选择,包括协方差类型和模型中组件的数量。

ROC曲线与交叉验证的方差分析

本网页介绍了如何使用交叉验证来分析接收者操作特征(ROC)曲线的方差,并展示了不同数据集的ROC响应。

多输出决策树回归示例

本文介绍了如何使用决策树进行多输出回归,并通过调整树的最大深度来控制模型的复杂度。

图像到图的转换

本文介绍了如何将图像转换为图结构,其中像素之间的连接由梯度值加权。

Ledoit-Wolf协方差矩阵估计

本页面介绍了如何使用Ledoit-Wolf方法估计协方差矩阵,并提供了Python代码示例。

偏差-方差分解与集成学习

本文探讨了回归分析中的偏差-方差分解,对比了单个决策树与集成学习中的Bagging方法在预测误差上的差异。

沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:15216758379