当前位置: 首页 > news >正文

智能网站建设软件有哪些方面谷歌云宝塔搭建WordPress

智能网站建设软件有哪些方面,谷歌云宝塔搭建WordPress,ajax数据库网页网站设计,网站抬头怎么做在机器学习的实际应用中#xff0c;单一分类器往往存在局限#xff1a;比如决策树容易过拟合#xff0c;kNN 对噪声敏感#xff0c;逻辑回归在高维数据下收敛慢。为了提升整体效果#xff0c;我们通常会采用 集成学习#xff08;Ensemble Learning#xff09;。 这篇文章…在机器学习的实际应用中单一分类器往往存在局限比如决策树容易过拟合kNN 对噪声敏感逻辑回归在高维数据下收敛慢。为了提升整体效果我们通常会采用 集成学习Ensemble Learning。 这篇文章将基于 sklearn 框架系统演示 Bagging、Boosting、Voting、Stacking 四类常见的集成学习方法并在经典的 KSC 高光谱数据集 上做实验对比。1. 实验思路 数据集KSC 高光谱影像及其地物标注预处理标准化 PCA 降维仅作为特征压缩取 30 维分类器随机森林RF、AdaBoost、GBDT、Bagging(kNN)、Voting、Stacking评价指标Overall Accuracy (OA) 与 Kappa 系数 ⚙️ 2. 完整代码 下面给出本次实验的完整代码可以直接运行。请注意修改 DATA_DIR 为你存放数据的路径。 # -*- coding: utf-8 -*-Sklearn案例⑤集成学习方法全览 - 演示 Bagging / Boosting / Voting / Stackingimport os, numpy as np, scipy.io as sio, matplotlib.pyplot as plt from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA from sklearn.ensemble import (RandomForestClassifier, AdaBoostClassifier,GradientBoostingClassifier, BaggingClassifier,VotingClassifier, StackingClassifier) from sklearn.svm import SVC from sklearn.neighbors import KNeighborsClassifier from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score, cohen_kappa_score import matplotlib matplotlib.rcParams[font.family] SimHei matplotlib.rcParams[axes.unicode_minus] False# 参数设置 DATA_DIR 你的数据路径 # 修改为存放 KSC.mat 和 KSC_gt.mat 的文件夹 PCA_DIM, TRAIN_RATIO, SEED 30, 0.3, 42# 1. 加载数据 X sio.loadmat(os.path.join(DATA_DIR, KSC.mat))[KSC].astype(np.float32) Y sio.loadmat(os.path.join(DATA_DIR, KSC_gt.mat))[KSC_gt].astype(int) h, w, b X.shape coords np.argwhere(Y ! 0) labels Y[coords[:,0], coords[:,1]] - 1 num_classes labels.max() 1# 2. 划分训练/测试 train_ids, test_ids train_test_split(np.arange(len(coords)), train_sizeTRAIN_RATIO,stratifylabels, random_stateSEED ) train_pixels X[coords[train_ids,0], coords[train_ids,1]] test_pixels X[coords[test_ids,0], coords[test_ids,1]]# 3. 标准化 PCA仅预处理 scaler StandardScaler().fit(train_pixels) pca PCA(n_componentsPCA_DIM, random_stateSEED).fit(scaler.transform(train_pixels)) X_train pca.transform(scaler.transform(train_pixels)) X_test pca.transform(scaler.transform(test_pixels)) y_train, y_test labels[train_ids], labels[test_ids]# 4. 定义多个集成学习模型 models {RF: RandomForestClassifier(n_estimators20, random_stateSEED, n_jobs-1),AdaBoost: AdaBoostClassifier(n_estimators20, random_stateSEED),GBDT: GradientBoostingClassifier(n_estimators20, random_stateSEED),Bagging(kNN): BaggingClassifier(KNeighborsClassifier(5), n_estimators30, random_stateSEED),Voting(SVMkNNLR): VotingClassifier(estimators[(svm, SVC(probabilityTrue)), (knn, KNeighborsClassifier(5)),(lr, LogisticRegression(max_iter1000))],votingsoft),Stacking(SVMkNN-LR): StackingClassifier(estimators[(svm, SVC(probabilityTrue)), (knn, KNeighborsClassifier(5))],final_estimatorLogisticRegression(max_iter200)) }# 5. 训练与评估 results {} for name, clf in models.items():clf.fit(X_train, y_train)y_pred clf.predict(X_test)oa accuracy_score(y_test, y_pred)kappa cohen_kappa_score(y_test, y_pred)results[name] (oa, kappa)print(f{name:20s} OA{oa*100:.2f}% Kappa{kappa:.4f})# 6. 可视化比较 plt.figure(figsize(8, 5), dpi110) names list(results.keys()) oa_vals [results[k][0] * 100 for k in names] kappa_vals [results[k][1] * 100 for k in names] x np.arange(len(names)) plt.plot(x, oa_vals, markero, linewidth2.2, labelOA (%)) plt.plot(x, kappa_vals, markers, linewidth2.2, linestyle--, labelKappa × 100) plt.xticks(x, names, rotation20, haright) plt.ylabel(Accuracy / Score (%)) plt.title(Sklearn 集成学习方法对比) plt.grid(alpha0.25, linestyle--) for xi, yi in zip(x, oa_vals):plt.text(xi, yi 0.6, f{yi:.1f}, hacenter, fontsize9) for xi, yi in zip(x, kappa_vals):plt.text(xi, yi 0.6, f{yi:.1f}, hacenter, fontsize9) plt.legend(frameonFalse, ncol2, locupper left) plt.tight_layout() plt.show()3. 实验结果与分析 运行后会输出每个模型的分类精度OA和 Kappa 系数并绘制对比折线图。实验表明 RF、Bagging能有效减少过拟合结果比较稳健AdaBoost、GBDT对复杂边界表现较好整体精度有提升Voting结合了 SVM、kNN、逻辑回归的优势适合多类别任务Stacking通过“元学习器”进一步优化往往能获得更平衡的结果。4. 总结 通过本实验我们可以看到 sklearn 提供了 完整的集成学习工具箱不同方法调用方式统一便于快速切换和比较。集成学习能够显著提升模型的鲁棒性尤其适合高维、类别不平衡的数据集。Voting 和 Stacking 等方法能够发挥多模型的互补性往往比单一模型更可靠。 未来我们还可以在此基础上 尝试更多基学习器如深度学习特征结合网格搜索进行超参数优化将集成学习与迁移学习结合应用到更大规模的遥感分类任务 欢迎大家关注下方我的公众获取更多内容
http://www.zqtcl.cn/news/801235/

相关文章:

  • 门头沟石家庄网站建设鞍山怎么样做一个自己的网站
  • 网站安装代码宣传网站建设背景
  • 网站空间续费东莞网站建设(信科分公司)
  • 少儿教育网站建设价格网页制作讲解视频
  • 网站开发方向的工作网站怎么做排名
  • 建设网站烧钱iis配置网站是什么
  • 新网站建设特色网站建设信息表
  • 商城做网站家具网站模板
  • 国有企业网站建设网站悬浮qq
  • 上海建站宝盒微网站生成app
  • 做网站是什么时候分页有哪些制作网站的公司
  • 专业柳州网站建设哪家好5千ip的网站能赚多少钱
  • 网站开发代理最火网页游戏
  • 做网站运营工资多少网站建设协议需要注意的问题
  • 如何建设一个人工智能网站qq头像网站源码
  • 有什么网站可以做外贸出口信息泉州网站制作运营商专业
  • 创业seo快速排名优化公司
  • 安丘网站开发王野天 女演员
  • 沈阳软件公司 网站制作wordpress未验证邮箱用户
  • 做动画上传网站赚钱么杭州市网站建设公司
  • 网站建设注意细节问题微信二维码
  • 凡科做的网站提示证书错误网络营销渠道可分为哪几种
  • 南京手机网站制作公司免费设计房屋效果图软件有哪些
  • 定制类网站怎么样做网页设计
  • 企业门户网站建设优势网站登录模版
  • 六盘水建设网站徐州建站平台
  • 昆明有多少做网站的公司公司软文代写
  • 东莞模板网站做一个电子商务网站在哪里做
  • 给别人网站做跳转株洲专业网站排名优化
  • 国外网站空间租用费用网站前端设计图