网站开发时如何兼容,网络架构指什么,网站开发网页制作薪资,网页微信登录入口机器学习深度研究#xff1a;特征选择过滤法中几个重要的统计学概念————卡方检验、方差分析、相关系数、p值问题引出当我们拿到数据并对其进行了数据预处理#xff0c;但还不能直接拿去训练模型#xff0c;还需要选择有意义的特征#xff08;即特征选择#xff09;特征选择过滤法中几个重要的统计学概念————卡方检验、方差分析、相关系数、p值问题引出当我们拿到数据并对其进行了数据预处理但还不能直接拿去训练模型还需要选择有意义的特征即特征选择这样做有四个好处1、避免维度灾难2、降低学习难度3、减少过拟合4、增强对特征和特征值之间的理解常见的特征选择有三种方法过滤法Filter先对数据集进行特征选择然后再训练学习器特征选择过程与后续学习器无关。包装法Wrapper根据目标函数通常是预测效果评分每次选择若干特征或者排除若干特征。嵌入法Embedding先使用机器学习模型进行训练得到各个特征的权值系数根据系数从大到小选择特征。其中过滤法是最简单最易于运行和最易于理解的。过滤法核心思路就是考察自变量和目标变量之间的关联性、相关性设定阈值优先选择与目标相关性高的特征。主要方法1、分类问题卡方检验(chi2)F检验(f_classif), 互信息(mutual_info_classif)2、回归问题相关系数(f_regression), 信息系数(mutual_info_regression)卡方检验、F检验、互信息、相关系数、信息系数这些都是统计学领域的概念在sklearn特征选择中被使用所以在解释这些概念时我也重点参考了sklearn文档。卡方检验百科定义卡方检验就是统计样本的实际观测值与理论推断值之间的偏离程度实际观测值与理论推断值之间的偏离程度就决定卡方值的大小如果卡方值越大二者偏差程度越大反之二者偏差越小若两个值完全相等时卡方值就为0表明理论值完全符合。卡方值 计算公式不要望公式兴叹其实只需掌握到第一个等号后就行了A为实际值T为理论值。F检验F检验和方差分析ANOVA是一回事主要用于两个及两个以上样本均数差别的显著性检验。方差分析的基本原理是认为不同处理组的均数间的差别基本来源有两个 (1) 实验条件即不同的处理造成的差异称为组间差异。用变量在各组的均值与总均值之偏差平方和的总和表示记作组间自由度。(2) 随机误差如测量误差造成的差异或个体间的差异称为组内差异用变量在各组的均值与该组内变量值之偏差平方和的总和表示 记作组内自由度。利用f值可以判断假设H0是否成立值越大大到一定程度时就有理由拒绝零假设认为不同总体下的均值存在显著差异。所以我们可以根据样本的某个特征的f值来判断特征对预测类别的帮助值越大预测能力也就越强相关性就越大从而基于此可以进行特征选择。互信息(mutual_info_classif/regression)互信息是变量间相互依赖性的量度。不同于相关系数互信息并不局限于实值随机变量它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。两个离散随机变量 X 和 Y 的互信息可以定义为相关系数(f_regression)相关系数是一种最简单的能帮助理解特征和响应变量之间关系的方法该方法衡量的是变量之间的线性相关性结果的取值区间为[-11]-1表示完全的负相关1表示完全的正相关0表示没有线性相关。式中是代表所有样本的在i号特征上的取值的维列向量分子上其实两个维列向量的内积所以是一个数值其实就是样本相关系数。 值越大第i个特征和因变量y之间的相关性就越大据此我们做特征选择。P值 (P-value)P值也就是常见到的 P-value。P 值是一种概率指的是在 H0 假设为真的前提下样本结果出现的概率。如果 P-value 很小则说明在原假设为真的前提下样本结果出现的概率很小甚至很极端这就反过来说明了原假设很大概率是错误的。通常会设置一个显著性水平significance level 与 P-value 进行比较如果 P-value 则说明在显著性水平 下拒绝原假设 通常情况下设置为0.05。sklearn特征选择——过滤法sklearn过滤法特征选择方法SelectBest 只保留 k 个最高分的特征 SelectPercentile 只保留用户指定百分比的最高得分的特征 使用常见的单变量统计检验假正率SelectFpr错误发现率selectFdr或者总体错误率SelectFwe GenericUnivariateSelect 通过结构化策略进行特征选择通过超参数搜索估计器进行特征选择。SelectKBest按照scores保留K个特征SelectPercentile按照scores保留指定百分比的特征SelectFpr、SelectFdr和SelectFwe对每个特征使用通用的单变量统计检验GenericUnivariateSelect允许使用可配置策略如超参数搜索估计器选择最佳的单变量选择策略。 特征选择指标 使用sklearn中SelectKBest函数进行特征选择参数中的score_func选择 分类chi2----卡方检验f_classif----方差分析计算方差分析ANOVA的F值 (组间均方 / 组内均方)mutual_info_classif----互信息互信息方法可以捕捉任何一种统计依赖但是作为非参数方法需要更多的样本进行准确的估计回归f_regression----相关系数计算每个变量与目标变量的相关系数然后计算出F值和P值mutual_info_regression----互信息互信息度量 X 和 Y 共享的信息它度量知道这两个变量其中一个对另一个不确定度减少的程度。sklearn过滤法特征选择-示例在sklearn中可以使用chi2这个类来做卡方检验得到所有特征的卡方值与显著性水平P临界值我们可以给定卡方值阈值 选择卡方值较大的部分特征。代码如下首先import包和实验数据from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
from sklearn.datasets import load_iris
#导入IRIS数据集
iris load_iris()
使用卡方检验来选择特征model1 SelectKBest(chi2, k2)#选择k个最佳特征
model1.fit_transform(iris.data, iris.target)#iris.data是特征数据iris.target是标签数据该函数可以选择出k个特征
结果输出为array([[ 1.4, 0.2],[ 1.4, 0.2],[ 1.3, 0.2],[ 1.5, 0.2],[ 1.4, 0.2],[ 1.7, 0.4],[ 1.4, 0.3],
可以看出后使用卡方检验选择出了后两个特征。如果我们还想查看卡方检验的p值和得分可以使用第3步。查看p-values和scoresmodel1.scores_ #得分
得分输出为array([ 10.81782088, 3.59449902, 116.16984746, 67.24482759])
可以看出后两个特征得分最高与我们第二步的结果一致model1.pvalues_ #p-values
p值输出为array([ 4.47651499e-03, 1.65754167e-01, 5.94344354e-26, 2.50017968e-15])
可以看出后两个特征的p值最小置信度也最高与前面的结果一致。