网站开发人员工工资,企业标准化建设,买电脑wordpress,企业怎么建立网站0.前提
上一期#xff0c;我们简单的介绍了一些有关机器学习的内容。学习机器学习的最终目的是为了服务我未来的毕设选择之一——智能小车#xff0c;所以其实大家完全可以根据自己的需求来学习这门课#xff0c;我做完另一辆小车后打算花点时间去进行一次徒步行#xff0…0.前提
上一期我们简单的介绍了一些有关机器学习的内容。学习机器学习的最终目的是为了服务我未来的毕设选择之一——智能小车所以其实大家完全可以根据自己的需求来学习这门课我做完另一辆小车后打算花点时间去进行一次徒步行回来就开始专心积累底层知识了回归轻松时刻去考试本来预期是一个学期更新大概25篇文章的现在看其实已经完全超过预期了。
1.线性回归
1.线性回归的概念
线性回归一种通过属性的线性组合来进行预测的线性模型其目的是找到一条直线或者一个平面或者更高维的超平面使得预测值与真实值之间的误差最小化。 如图为单变量的线性回归蓝点为真实数据红点为预测数据红点与红线重合度越高数据拟合的效果越好。 2.符号定义
·代表训练集中样本的数量
·代表特征的数量
·代表特征/输入变量
·代表目标变量/输出变量
·代表训练集中的样本
·代表第个观察样本
·代表学习算法的解决方案或函数也称为假设
·代表预测值
·是特征矩阵中的第行是向量
·是代表特征矩阵中第行的第个特征
3.算法流程 ·损失函数度量样本预测的错误程度损失函数值越小模型就越好。常用的损失函数包括0-1损失函数、平方损失函数、绝对损失函数、对数损失函数等;损失函数采用平方和损失损失函数的1/2是为了便于计算使对平方项求导后的常数系数为1。 ·代价函数也称成本函数度量全部样本集的平均误差。常用的代价函数包括均方误差、均方根误差、平均绝对误差等残差平方和。 ·目标函数代价函数和正则化函数最终要优化的函数。 4.线性回归求解
求解 的一组常见的求残差平方和最小的方法为最小二乘法和梯度下降法。
2.最小二乘法(LSM)
·其实就是求最小 ·将向量表达形式转为矩阵表达形式,X为行列的矩阵为样本个数为特征个数为行1列的矩阵包含了Y为行1列的矩阵 ·对 求偏导 ·结果 3.梯度下降
梯度下降有3种形式批量梯度下降、随机梯度下降、小批量梯度下降。
1.批量梯度下降BGD
批量梯度下降梯度下降的每一步中都用到了所有的训练样本。
参数更新: 同步更新,代表学习率代表梯度。
2.随机梯度下降SGD
随机梯度下降梯度下降的每一步中用到一个样本在每一次计算后更新参数而不需要将所有的训练集求和。
参数更新同步更新
3.小批量梯度下降MBGD 梯度下降的每一步用到一定批量的训练样本每计算常数次训练实例更新一次参数 。 参数更新同步更新 ,当b1时是随机梯度下降bm时是批量梯度下降b2的指数倍数常见32、64、128等时为小批量梯度下降 4.梯度下降与最下二乘法的比较
1.梯度下降
需要选择学习率要多次迭代当特征数量较大时能较好适用适用各种类型的模型。
2.最小二乘法
不需要选择学习率一次计算得出需要计算,如果特征数量较大则运算代价大因为矩阵逆得计算时间复杂度为0(),一般当小于10000时可以接受只适用于线性模型不适合逻辑回归等其他模型。
5.数据归一化/标准化
1.作用
标准化/归一化可以提升模型精度和加速模型收敛。
2.归一化最大-最小规范化
,将数据映射到[0,1]区间数据归一化的目的是使得各特征对目标变量得影响一致会将特征数据进行伸缩变化所以数据归一化是会改变特征数据分布的。
3.Z-Score标准化
其中,,处理后的数据均值为0方差为1数据标准化为了不同特征间具备可比性经过标准化变换后的特征数据分布没有改变当数据特征取值范围或单位差异较大时最好做标准化处理。
4.是否需要做数据归一化/标准化
1.需要
线性模型如基于距离度量的模型包括KNN(K近邻)、K-means聚类、感知机和SVM。另外线性回归类的几个模型一般情况下也是需要做数据归一化/标准化处理的。
2.不需要 决策树、基于决策树的Boosting和Bagging等集成学习模型对于特征取值大小并不敏感如随机森林、XGBoost、LightGBM等树模型以及朴素贝叶斯以上这些模型一般不需要做数据归一化/标准化处理。 6.正则化
1.拟合 注释拟合就好比成绩与刷题量之间的关系欠拟合就是你刷题量特别少考试得到的分数比你想象中的要低这就说明欠拟合了过拟合就是你知道刷题能提高成绩然后一天16个小时都在刷题是的你成绩变高了但是你只是读了万卷书没能行万里路这就是过拟合了正合适就是你刷了一定量的题成绩不错同时你也行了万里路这就是正合适。
2.处理过拟合
1.获取更多的训练数据
使用更多的数据能有效解决过拟合更多的数据样本能让模型学习更多更有效的特征减少噪声影响。
2.降维
丢弃一些偏差较大的样本特征手动选择保留的特征也可以使用一些模型选择算法。
3.正则化
保留所有特征减少参数大小可以改善或减少过拟合问题。
4.集成学习
将多个模型集成在一起来降低单一模型的过拟合风险。
3.处理欠拟合
1.添加新特征
特征不足或者现有特征与样本标签相关性不强时模型容易欠拟合。挖掘组合新特征效果会有所改善。
2.增加模型复杂度
简单模型学习能力差增加模型的复杂度可以使模型有更强的拟合能力。例如线性模型中添加高次项神经网咯模型中增加网络层数或神经元个数等。
3.减小正则化系数 正则化是用来防止过拟合的但当模型出现欠拟合现象时则需要有针对性地减小正则化系数。 4.正则化
·λ为正则化系数调整正则化项与训练误差的比例λ0。
·1≥ρ≥0为比例系数调整L1正则化与L2正则化的比例。
1.L1正则化
,(Lasso回归)
2.L2正则化
(岭回归)
3.Elastic Net
,(弹性网络) 7.回归的评价指标
代表第个样本的真实值代表第个样本的预测值为样本个数。
1.均方误差(MSE) 2.平均绝对误差(MAE) 3.均方跟误差(RMSE) 8.总结
在这里我强烈推荐大家去看一下吴恩达老师的课程非常感谢大佬能将老师的课程翻译过来当然少看中文翻译能更好的克服语言障碍。 (强推|双字)2022吴恩达机器学习Deeplearning.ai课程_哔哩哔哩_bilibili