当前位置: 首页 > news >正文

官方你网站建设策略产品宣传视频怎么制作

官方你网站建设策略,产品宣传视频怎么制作,全国公示信用信息系统,网站推广运作怎么做基于WIN10的64位系统演示 一、写在前面 这一期#xff0c;我们介绍AdaBoost回归。 同样#xff0c;这里使用这个数据#xff1a; 《PLoS One》2015年一篇题目为《Comparison of Two Hybrid Models for Forecasting the Incidence of Hemorrhagic Fever with Renal Syndr…基于WIN10的64位系统演示 一、写在前面 这一期我们介绍AdaBoost回归。 同样这里使用这个数据 《PLoS One》2015年一篇题目为《Comparison of Two Hybrid Models for Forecasting the Incidence of Hemorrhagic Fever with Renal Syndrome in Jiangsu Province, China》文章的公开数据做演示。数据为江苏省2004年1月至2012年12月肾综合症出血热月发病率。运用2004年1月至2011年12月的数据预测2012年12个月的发病率数据。 二、AdaBoost回归 1代码解读 sklearn.ensemble.AdaBoostRegressor(estimatorNone, *, n_estimators50, learning_rate1.0, losslinear, random_stateNone, base_estimatordeprecated) 咋一看跟AdaBoostClassifier用于分类上传送门参数也差不多因此我们列举出它们相同和不同的地方便于对比记忆 共同的参数 base_estimator: 基估计器用于训练弱学习器。如果为 None分类器默认使用决策树分类器而回归器默认使用决策树回归器。 n_estimators: 最大的弱学习器数量。 learning_rate: 按指定的学习率缩小每个弱学习器的贡献。 random_state: 随机数生成器的种子或随机数生成器。 algorithm: 用于 AdaBoost 算法的执行版本。在分类器中是 {SAMME, SAMME.R}在回归器中只有 SAMME。 差异 AdaBoostClassifier 特有参数 algorithm: 可选的执行算法可以是 SAMME 或 SAMME.R。默认为 SAMME.R。其中 SAMME.R 是 SAMME 的实值版本它通常表现得更好因为它依赖于类别概率而不是类别预测。 AdaBoostRegressor 特有参数 loss: 在增加新的弱学习器时用于更新权重的损失函数。可选的值包括 linear, square, 和 exponential。 综上可见虽然这两个类的大部分参数都很相似但它们的主要区别在于分类器具有两种执行算法SAMME 和 SAMME.R而回归器则添加了一个 loss 参数来定义更新权重时使用的损失函数。 2单步滚动预测 import pandas as pd import numpy as np from sklearn.metrics import mean_absolute_error, mean_squared_error from sklearn.ensemble import AdaBoostRegressor from sklearn.model_selection import GridSearchCVdata pd.read_csv(data.csv)# 将时间列转换为日期格式 data[time] pd.to_datetime(data[time], format%b-%y)# 拆分输入和输出 lag_period 6# 创建滞后期特征 for i in range(lag_period, 0, -1):data[flag_{i}] data[incidence].shift(lag_period - i 1)# 删除包含NaN的行 data data.dropna().reset_index(dropTrue)# 划分训练集和验证集 train_data data[(data[time] 2004-01-01) (data[time] 2011-12-31)] validation_data data[(data[time] 2012-01-01) (data[time] 2012-12-31)]# 定义特征和目标变量 X_train train_data[[lag_1, lag_2, lag_3, lag_4, lag_5, lag_6]] y_train train_data[incidence] X_validation validation_data[[lag_1, lag_2, lag_3, lag_4, lag_5, lag_6]] y_validation validation_data[incidence]# 初始化AdaBoostRegressor模型 adaboost_model AdaBoostRegressor()# 定义参数网格 param_grid {n_estimators: [50, 100, 150],learning_rate: [0.01, 0.05, 0.1, 0.5, 1],loss: [linear, square, exponential] }# 初始化网格搜索 grid_search GridSearchCV(adaboost_model, param_grid, cv5, scoringneg_mean_squared_error)# 进行网格搜索 grid_search.fit(X_train, y_train)# 获取最佳参数 best_params grid_search.best_params_# 使用最佳参数初始化AdaBoostRegressor模型 best_adaboost_model AdaBoostRegressor(**best_params)# 在训练集上训练模型 best_adaboost_model.fit(X_train, y_train)# 对于验证集我们需要迭代地预测每一个数据点 y_validation_pred []for i in range(len(X_validation)):if i 0:pred best_adaboost_model.predict([X_validation.iloc[0]])else:new_features list(X_validation.iloc[i, 1:]) [pred[0]]pred best_adaboost_model.predict([new_features])y_validation_pred.append(pred[0])y_validation_pred np.array(y_validation_pred)# 计算验证集上的MAE, MAPE, MSE和RMSE mae_validation mean_absolute_error(y_validation, y_validation_pred) mape_validation np.mean(np.abs((y_validation - y_validation_pred) / y_validation)) mse_validation mean_squared_error(y_validation, y_validation_pred) rmse_validation np.sqrt(mse_validation)# 计算训练集上的MAE, MAPE, MSE和RMSE y_train_pred best_adaboost_model.predict(X_train) mae_train mean_absolute_error(y_train, y_train_pred) mape_train np.mean(np.abs((y_train - y_train_pred) / y_train)) mse_train mean_squared_error(y_train, y_train_pred) rmse_train np.sqrt(mse_train)print(Train Metrics:, mae_train, mape_train, mse_train, rmse_train) print(Validation Metrics:, mae_validation, mape_validation, mse_validation, rmse_validation) 看结果 3多步滚动预测-vol. 1 AdaBoostRegressor预期的目标变量y应该是一维数组所以你们懂的。 4多步滚动预测-vol. 2 同上。 5多步滚动预测-vol. 3 import pandas as pd import numpy as np from sklearn.ensemble import AdaBoostRegressor from sklearn.model_selection import GridSearchCV from sklearn.metrics import mean_absolute_error, mean_squared_error# 数据读取和预处理 data pd.read_csv(data.csv) data_y pd.read_csv(data.csv) data[time] pd.to_datetime(data[time], format%b-%y) data_y[time] pd.to_datetime(data_y[time], format%b-%y)n 6for i in range(n, 0, -1):data[flag_{i}] data[incidence].shift(n - i 1)data data.dropna().reset_index(dropTrue) train_data data[(data[time] 2004-01-01) (data[time] 2011-12-31)] X_train train_data[[flag_{i} for i in range(1, n1)]] m 3X_train_list [] y_train_list []for i in range(m):X_temp X_trainy_temp data_y[incidence].iloc[n i:len(data_y) - m 1 i]X_train_list.append(X_temp)y_train_list.append(y_temp)for i in range(m):X_train_list[i] X_train_list[i].iloc[:-(m-1)]y_train_list[i] y_train_list[i].iloc[:len(X_train_list[i])]# 模型训练 param_grid {n_estimators: [50, 100, 150],learning_rate: [0.01, 0.05, 0.1, 0.5, 1],loss: [linear, square, exponential] }best_ada_models []for i in range(m):grid_search GridSearchCV(AdaBoostRegressor(), param_grid, cv5, scoringneg_mean_squared_error)grid_search.fit(X_train_list[i], y_train_list[i])best_ada_model AdaBoostRegressor(**grid_search.best_params_)best_ada_model.fit(X_train_list[i], y_train_list[i])best_ada_models.append(best_ada_model)validation_start_time train_data[time].iloc[-1] pd.DateOffset(months1) validation_data data[data[time] validation_start_time]X_validation validation_data[[flag_{i} for i in range(1, n1)]] y_validation_pred_list [model.predict(X_validation) for model in best_ada_models] y_train_pred_list [model.predict(X_train_list[i]) for i, model in enumerate(best_ada_models)]def concatenate_predictions(pred_list):concatenated []for j in range(len(pred_list[0])):for i in range(m):concatenated.append(pred_list[i][j])return concatenatedy_validation_pred np.array(concatenate_predictions(y_validation_pred_list))[:len(validation_data[incidence])] y_train_pred np.array(concatenate_predictions(y_train_pred_list))[:len(train_data[incidence]) - m 1]mae_validation mean_absolute_error(validation_data[incidence], y_validation_pred) mape_validation np.mean(np.abs((validation_data[incidence] - y_validation_pred) / validation_data[incidence])) mse_validation mean_squared_error(validation_data[incidence], y_validation_pred) rmse_validation np.sqrt(mse_validation) print(验证集, mae_validation, mape_validation, mse_validation, rmse_validation)mae_train mean_absolute_error(train_data[incidence][:-(m-1)], y_train_pred) mape_train np.mean(np.abs((train_data[incidence][:-(m-1)] - y_train_pred) / train_data[incidence][:-(m-1)])) mse_train mean_squared_error(train_data[incidence][:-(m-1)], y_train_pred) rmse_train np.sqrt(mse_train) print(训练集, mae_train, mape_train, mse_train, rmse_train) 结果 三、数据 链接https://pan.baidu.com/s/1EFaWfHoG14h15KCEhn1STg?pwdq41n 提取码q41n
http://www.zqtcl.cn/news/981043/

相关文章:

  • 东莞企业网站制作推广运营多样化的网站建设公司
  • 深圳做网站那里好提交网址给百度
  • 泰州企业建站系统中企动力科技做什么的
  • 唐山公司网站建设 中企动力唐山宽带动态ip如何做网站访问
  • 个人商城网站怎么做电商网站及企业微信订烟
  • 温州市网站优化广告平面设计教程
  • 南通制作网站的有哪些公司吗sae 部署wordpress
  • 友情链接对网站的影响wordpress admin init
  • 渭南网站开发做网红用哪个网站
  • 湖北建设网站wordpress 翻页电子书
  • 网站设计命名规范厦门建站比较好的公司
  • 用vs2010做网站登入前端培训费用大概多少郑州
  • 网站建设后的效果评估杭州网站制作公司
  • 3网站建设公司影楼修图用什么软件
  • 手机网站的内容模块多用户商城开源左
  • 库尔勒网站建站宝盒合作
  • 五河网站建设哪家好wordpress获取文章作者
  • 怎么修改网站内容wordpress ajax接口
  • 绵阳市城乡建设和规划局网站重庆网站建设公司有哪些
  • 宿迁网站建设公司排名展厅设计企业
  • 做家具定制的设计网站开阿里巴巴网站建设流程
  • 站长统计软件广州免费核酸在哪里做
  • 做soho一定要做网站吗在百度网站备案查询上显示未备案是什么意思
  • 移动公司营销网站设计html旅游网站模板
  • 专业生产车间设计图纸网站ui设计师证
  • 如何建网站教程视频10种网络营销方法
  • 网站内链优化的角度wordpress缓存插件破解版
  • 南宁网站建设哪个好天津网站建设咨询
  • 网站开发常用中间件计算机语言python
  • 学习html5的网站软件系统开发怎样容易