当前位置: 首页 > news >正文

医院诊所网站源码网站建设会用到ppt吗

医院诊所网站源码,网站建设会用到ppt吗,软件开发合同协议,wordpress免费域名本文主要从 单特征分析#xff0c;多特征筛选#xff0c;特征监控#xff0c;外部特征评估的几个方面对特征数据进行阐述。 来源 #xff1a; 特征筛选_特征覆盖度怎么算_adamyoungjack的博客-CSDN博客 1. 单特征分析 1.1 简介 好特征可以从几个角度衡量#xff1a;覆…本文主要从 单特征分析多特征筛选特征监控外部特征评估的几个方面对特征数据进行阐述。 来源  特征筛选_特征覆盖度怎么算_adamyoungjack的博客-CSDN博客 1. 单特征分析 1.1 简介 好特征可以从几个角度衡量覆盖度区分度相关性稳定性 1.2 覆盖度 1. 应用场景 采集类授权类第三方数据在使用前都会分析覆盖度 2. 分类 采集类 如APP list Android 手机 90%授权类如爬虫数据20% 30%覆盖度GPS 有些产品要求必须授权 3. 计算 一般会在两个层面上计算覆盖度覆盖度 有数据的用户数/全体用户数 全体存量客户全体有信贷标签客户 4. 衍生 覆盖度可以衍生两个指标缺失率零值率 缺失率一般就是指在全体有标签用户上的覆盖度零值率很多信贷类数据在数据缺失时会补零所以需要统计零值率业务越来越成熟覆盖度可能会越来愈好可以通过运营策略提升覆盖度 1.3 区分度 1. 简介 评估一个特征对好坏用户的区分性能的指标 2. 应用场金 可以把单特征当做模型使用AUC, KS来评估特征区分度在信贷领域常用Information Value (IV)来评估单特征的区分度 3. 计算 Information Value刻画了一个特征对好坏用户分布的区分程度 IV值越大IV值越小 IV值最后ln的部分跟WOE是一样的 IV计算举例数据为了方便计算填充不代表实际业务 IV0.02 区分度小 建模时不用 xgboost,lightGMB 对IV值要求不高IV [0.02,0.5] 区分度大 可以放到模型里(IV 0.1 考虑是否有未来信息)IV 0.5 单独取出作为一条规则使用不参与模型训练 4. 注意 模型中尽可能使用区分度相对较弱的特征将多个弱特征组合得到评分卡模型连续变量的IV值计算先离散化再求IV跟分箱结果关联很大一般分3-5箱 1.4 相关性 1. 简介 对线性回归模型有一条基本假设是自变量x1x2…xp之间不存在严格的线性关系 2. 分类 需要对相关系数较大的特征进行筛选只保留其中对标签区分贡献度最大的特征即保留IV较大的 皮尔逊相关系数斯皮尔曼相关系数肯德尔相关系数 3. 选择 考察两个变量的相关关系首先得清楚两个变量都是什么类型的 连续型数值变量无序分类变量、有序分类变量连续型数值变量如果数据具有正态性此时首选Pearson相关系数如果数据不服从正态分布此时可选择Spearman和Kendall系数两个有序分类变量相关关系可以使用Spearman相关系数一个分类变量和一个连续数值变量可以使用kendall相关系数 总结就适用性来说kendall spearman pearson 4. 计算 import pandas as pd  df pd.DataFrame({A:[5,91,3],B:[90,15,66],C:[93,27,3]})  df.corr() # 皮尔逊  df.corr(spearman)#斯皮尔曼  df.corr(kendall)#肯德尔 可以使用toad库来过滤大量的特征高缺失率、低iv和高度相关的特征一次性过滤掉 import pandas as pd import toad data pd.read_csv(data/germancredit.csv) data.replace({good:0,bad:1},inplaceTrue) data.shape#缺失率大于0.5,IV值小于0.05,相关性大于0.7来进行特征筛选 selected_data, drop_list toad.selection.select(data,target creditability, empty 0.5, iv 0.05, corr 0.7, return_dropTrue) print(保留特征:,selected_data.shape[1],缺失删除:,len(drop_list[empty]),低iv删 除,len(drop_list[iv]),高相关删除,len(drop_list[corr]))1.5 稳定性 1. 简介 主要通过计算不同时间段内同一类用户特征的分布的差异来评估 2. 分类 常用的特征稳定性的度量有Population Stability Index (PSI)当两个时间段的特征分布差异大则PSI大当两个时间段的特征分布差异小则PSI小 3. PSI和IV对比 IV是评估好坏用户分布差异的度量PSI是评估两个时间段特征分布差异的度量都是评估分布差异的度量并且公式其实一模一样只是符号换了而已 2. 多特征筛选 1. 简介 当构建了大量特征时接下来的调整就是筛选出合适的特征进行模型训练 过多的特征会导致模型训练变慢学习所需样本增多计算特征和存储特征成本变高 2. 方法 星座特征Boruta方差膨胀系数后向筛选L1惩罚项业务逻辑 2.1 星座特征 1. 简介 星座是公认没用的特征区分度低于星座的特征可以认为是无用特征 2. 步骤 把所有特征加上星座特征一起做模型训练拿到特征的重要度排序多次训练的重要度排序都低于星座的特征可以剔除 2.2 Boruta 1. 简介 Boruta算法是一种特征选择方法使用特征的重要性来选取特征 网址https://github.com/scikit-learn-contrib/boruta_py安装pip install Boruta 2.原理 创建阴影特征 (shadow feature) : 对每个真实特征R随机打乱顺序得到阴影特征矩阵S拼接到真实特征后面构成新的特征矩阵N [R, S].用新的特征矩阵N作为输入训练模型能输出feature_importances_的模型如RandomForest lightgbmxgboost都可以得到真实特征和阴影特征的feature importances,取阴影特征feature importance的最大值S_max真实特征中feature importance小于S_max的被认为是不重要的特征删除不重要的特征重复上述过程直到满足条件 3. 应用 import numpy as np import pandas as pd import joblib from sklearn.ensemble import RandomForestClassifier from boruta import BorutaPy #加载数据 pd_data joblib.load(data/train_woe.pkl) pd_data#处理数据去掉id 和 目标值 pd_x pd_data.drop([SK_ID_CURR, TARGET], axis1) x pd_x.values # 特征 y pd_data[[TARGET]].values # 目标 y y.ravel() # 将多维数组降位一维使用Boruta选择features # 先定义一个随机森林分类器 rf RandomForestClassifier(n_jobs-1, class_weightbalanced, max_depth5) BorutaPy function estimator : 所使用的分类器 n_estimators : 分类器数量, 默认值 1000 max_iter : 最大迭代次数, 默认值 100 feat_selector BorutaPy(rf, n_estimatorsauto, random_state1, max_iter10) feat_selector.fit(x, y)展示选择出来的feature dic_ft_select dict() # feat_selector.support_ # 返回特征是否有用false可以去掉 for ft, seleted in zip(pd_x.columns.to_list(), feat_selector.support_): dic_ft_select[ft] seleted pd_ft_select pd.DataFrame({feature:pd_x.columns.to_list(), selected: feat_selector.support_}) pd_ft_selec2.3 方差膨胀系数 VIF 1. 简介 方差膨胀系数 Variance inflation factor (VIF)如果一个特征是其他一组特征的线性组合则不会在模型中提供额外的信息可以去掉评估共线性程度 2. 计算  VF计算 VIF越大说明拟合越好该特征和其他特征组合共线性越强就越没有信息量可以剔除 3 应用 加载数据 import numpy as np  import pandas as pd  import joblib  from statsmodels.stats.outliers_influence import variance_inflation_factor  pd_data joblib.load(./train_woe.pkl) #去掉ID和目标值  pd_x pd_data.drop([SK_ID_CURR, TARGET], axis1) 计算方差膨胀系数 #定义计算函数 def checkVIF_new(df): lst_col df.columns x np.matrix(df) VIF_list [variance_inflation_factor(x,i) for i in range(x.shape[1])] VIF pd.DataFrame({feature:lst_col,VIF:VIF_list}) max_VIF max(VIF_list) print(max_VIF) return VIF df_vif checkVIF_new(pd_x) df_vif选取方差膨胀系数 3的features df_vif[df_vif[VIF] 3]2.4 RFE 递归特征消除 (Recursive Feature Elimination) 1. 简介 使用排除法的方式训练模型把模型性能下降最少的那个特征去掉反复上述训练直到达到指定的特征个数 6.2 api sklearn.feature_selection.RFE6.3 应用 加载数据 import numpy as np import pandas as pd import joblib from sklearn.feature_selection import RFE from sklearn.svm import SVR pd_data joblib.load(data/final_data.pkl) pd_data特征目标提取 pd_x pd_data.drop([SK_ID_CURR, TARGET], axis1) x pd_x.values y pd_data[[TARGET]].values y y.ravel()使用RFE选择features #定义分类器 estimator SVR(kernellinear) selector RFE(estimator, 3, step1) # step 一次去掉几个特征 selector selector.fit(x, y) #展示选择参数 dic_ft_select dict() for ft, seleted in zip(pd_x.columns.to_list(), selector.support_): dic_ft_select[ft] seleted pd_ft_select pd.DataFrame({feature:pd_x.columns.to_list(), selected: selector.support_}) pd_ft_select2.5 基于L1的特征选择 (L1-based feature selection) 1. 简介 使用L1范数作为惩罚项的线性模型(Linear models)会得到稀疏解大部分特征对应的系数为0希望减少特征维度用于其它分类器时可以通过 feature_selection.SelectFromModel 来选择不为0的系数 特别指出常用于此目的的稀疏预测模型有 linear_model.Lasso回归 linear_model.LogisticRegression 和 svm.LinearSVC分类   7.3 应用 from sklearn.svm import LinearSVC from sklearn.datasets import load_iris from sklearn.feature_selection import SelectFromModel iris load_iris() X, y iris.data, iris.target X.shapelsvc LinearSVC(C0.01, penaltyl1, dualFalse).fit(X, y) model SelectFromModel(lsvc, prefitTrue) X_new model.transform(X) X_new.shape3. 内部特征的监控 3.1 前端监控授信之前 特征稳定性 大多数情况下随着业务越来越稳定缺失率应该呈现逐渐降低的趋势如下表所示Week3缺失率突然增加到28%大概率是数据采集或传输过程出问题了PSI特征维度的PSI如果0.1可以观察一段时间 3.2 后端监控放款之后 特征区分度 AUC/KS 波动在10%以内KS 如果是线上A卡 0.2是合格的水平IV值的波动稍大可以容忍和分箱相关每周数据分布情况可能不同对IV影响大一些 分箱样本比例 分箱风险区分要重视每个特征的风险趋势单调性 每一箱 的bad_rate有波动容忍度相对高一些要高度重视不同箱之间风险趋势发生变化如分箱1分箱2在week2和week3 风险趋势发生了变化如果风险趋势单调性发生变化要考虑特征是不是要进行迭代 4. 外部特征评估 4.1 数据评估标准 覆盖度、区分度、稳定性 4.2 使用外部数据注意事项 1. 避免未来信息 使用外部数据的时候可能出现训练模型的时候效果好上线之后效果差 取最近一个时间周期的数据之前3~4个月或者更长时间的数据做验证看效果是不是越来越差 2. 外部数据覆盖度计算 交集用户数 / 内部用户数外部数据选择 如果外部数据免费那么全部调用但付费的三方数据要在有必要的时候在调用在计算外部数据覆盖度前首先应该明确什么客群适合这个第三方数据内部缺少数据且这个第三方数据能提升区分度那这个第三方数据才有用覆盖度 交集用户数 / 内部目标客群 3. 避免内部数据泄露 如果需要把数据交给外部公司让对方匹配一定要将内部信息做Hash处理再给对方匹配 匹配上的是共有的数据匹配不上的外部无法得知其身份 4. 避免三方公司对结果美化 内部自己调用接口测覆盖度直接调用即可如果是把样本交给外部公司让对方匹配一定要加假样本 这样他们只能匹配出结果但无法得知真实的覆盖度只有内部公司能区分出真假样本从而计算出真实覆盖度如果覆盖度高于真实样本比例说明结果作假 5. 评分型外部数据 区分度和稳定性的分析方法同单特征的分析一样区分度AUC, KS, IV, 风险趋势稳定性: PSI 6. 模型效果 内部特征训练的模型效果 vs 内部特征外部特征训练的模型效果 AUC有 2~3个点的提升就很好了 7. 黑名单型外部数据 使用混淆矩阵评估区分度 Precision: 外部命中的尽可能多的是内部的坏客户 Recall: 内部的坏客户尽可能多的命中外部名单 8. 回溯性 外部数据是否具有可回溯性无法得知所以尽可能取最近的样本去测 早期接入数据后要密切关注线上真实的区分度表现
http://www.zqtcl.cn/news/632317/

相关文章:

  • ftp网站地图怎么做网站模板出售
  • 用rp怎么做网站导航菜单手机app制作入门教程
  • 国外创意网站市场营销在线课程
  • 怎么做点图片链接网站网站建设云解析dns有什么用
  • 重庆网站建设哪家公司哪家好企业 网站规划与网页设计word
  • 手机必备软件100个网站建设和优化排名
  • 天津公司网站怎样制作网页设计图片尺寸
  • 网站建设中模板代码网络营销推广公司哪家好
  • 百度免费建立网站搜索引擎推广效果
  • 网站建设分金手指排名十二建设内容管理网站的目的
  • 无锡网站策划制作网站的工具
  • 免费的网站开发软件百度做网站推广的费用
  • 汽车维修东莞网站建设怎么用阿里的域名 做网站
  • 网站怎么做免费cosy WordPress
  • wordpress 关闭自动更新青岛济南网站建设优化
  • 外贸网站推广平台哪个好如何建设手机端网站
  • linux新建网站巩义网站建设定制
  • 网站建设要什么软件有哪些北京seo
  • 空调设备公司网站建设wordpress 4.9
  • 潮州市网站建设公司网页设计代码模板素材
  • 深圳做网站开发费用个人网页设计作品手绘
  • 怎样做网站跳转国内企业建站模板
  • 优化网站哪个好互联网公司市值
  • 广州微信网站开发游戏企业用什么程序做网站
  • 深圳赶集同城网站建设网站空间类型
  • 怎么样做网站代wordpress手机上传图片插件
  • 西安做网站xamokjwordpress 酒业模板
  • 做微博网站如何开网店卖自己的东西
  • 黄骅市有什么好玩的地方常州百度seo排名
  • 做英语在线翻译兼职网站公交建设公司的官网