免费wap自助建站火星建站,谁有qq网站开发资源群,安卓系统软件开发培训机构,越南做企业网站李宏毅机器学习课程---2、Regression - Case Study 一、总结 一句话总结#xff1a; 分类讨论可能是比较好的找最佳函数的方法#xff1a;如果 有这样的因素存在的话 模型不够好#xff0c;可能是因素没有找全 因素以及函数的复杂度#xff0c;并不是越高越好#xff0c;适… 李宏毅机器学习课程---2、Regression - Case Study 一、总结 一句话总结 分类讨论可能是比较好的找最佳函数的方法如果 有这样的因素存在的话 模型不够好可能是因素没有找全 因素以及函数的复杂度并不是越高越好适合的才是最好的 1、AI训练师的工作是什么 为机器挑选【合适的model 和 loss function】不同的model和loss function来适合解决不同的问题 loss英 [lɒs] 美 [lɔs] n. 减少亏损失败遗失n. (Loss)人名(匈)洛什(法、德、意)洛斯[ 复数 losses ] 2、如何理解“要训练出厉害的AIAI训练师功不可没” AI训练师为机器挑选【合适的model 和 loss function】不同的model和loss function来适合解决不同的问题 3、机器学习要做的就是找一个function那Regression要做的是什么 找一个scalaroutput a scalar就是输出一个数值比如自动驾驶汽车f无人车上的各个传感器 方向盘的角度比如90度 4、Regression的实际例子有哪些 Stock Market Forecast股票市场预测f过去股票市场的变动 Dow Jones Industrial Average at tomorrow Self-driving car自动驾驶汽车f无人车上的各个传感器 方向盘的角度 Recommendation推荐f使用者A的种种特性 商品B的种种特性 购买可能性 Estimating the Combat Power(CP) of a pokemon after evolution评估宝可梦的进化之后的战斗能力f进化前的宝可梦的各种属性 CP after evolution 5、Regression函数是怎么建模的变量命名规则 |||-begin Estimating the Combat Power(CP) of a pokemon after evolution评估宝可梦的进化之后的战斗能力f进化前的宝可梦的各种属性 CP after evolution |||-end x加下标表示各种输入进化前的宝可梦的各种属性用x加下标表示比如Xw表示重量Xh表示高度Xcp表示战斗力等等 y表示输出 6、机器学习中的模型是什么意思 就是一组函数a set of function 比如 【线性模型】 ybw*Xcp中不同的b和w就代表了不同的函数 比如精灵宝可梦进化后战斗力变化 ybw*Xcp 7、机器学习中的线性模型长什么样 yb求和符号WiXi bbias偏移Wiweight权重 Xi各个属性比如宝可梦的身高宝可梦的体重宝可梦进化前的战斗力 bias英 [baɪəs] 美 [baɪəs] n. 偏见偏爱斜纹乖离率vt. 使存偏见adj. 偏斜的adv. 偏斜地n. (Bias)人名(法、德、葡、喀)比亚斯(英)拜厄斯 8、机器学习的第二步是衡量第一步Regression中的function好不好、有多好那么如何衡量 用loss function相对于就是求 函数结果和实际结构的方差 9、机器学习的第二步中的Goodness of Function中的Loss functon(简称L)是什么 评判函数好坏Loss function是用来评判函数集中函数的好坏的 inputa functionoutputhow bad it is这个function的好坏 举例可以是求 实际结果与函数结果的方差 来判断函数的好坏 L(f)是可以看做L(wb)的因为不同的函数其实就是不同的w和b在变化 10、判断函数集中函数好坏的时候可以用穷举法来判断么 一般是不行的我们需要更有效率的方法因为Xi可能有很多个而且w和b的变化范围也几乎是无限的 11、在求函数集中最好的函数的时候用了Gradient Descent梯度下降法方法那么Gradient Descent方法是什么【原理】又是什么注意点是什么 最简单实例分析 画图最简单实例分析假设只有一个因变量w那么L(w)可以画出来纵轴L(w)横轴w 判断w是加还是减随机找一个初始的位置找这个点切线的斜率(微分)如果切线斜率是负数那么久增加w反之正数 learning rate增加w的幅度为η*斜率那么这个η就是learning rateη越大相当于每次跨一大步学习的越快不过也没那么精确 不同起始点不一定可以找到global minimal因为有些点出发会走到local minima这个时候斜率为0w就走不动了没法判断是向左还是向右 gradient英 [greɪdɪənt] 美 [ɡredɪənt] n. [数][物] 梯度坡度倾斜度adj. 倾斜的步行的descent英 [dɪsent] 美 [dɪsɛnt] n. 下降血统袭击vt. 除去…的气味使…失去香味 12、在求函数集中最好的函数的时候用了Gradient Descent梯度下降法方法如果变化的参数是两个那么计算步骤是怎样 1、选初始值RandomlyPick an initial value w0b0 2、计算斜率计算L对w和b的偏微分这就相当于一个参数时候的斜率这里是往等高线的法线方向走 13、在求函数集中最好的函数的时候用了Gradient Descent梯度下降法方法中是否斜率微分是0的点就是所求 不是一条线中可以有很多斜率为0的点但是他们不一定是极值点 14、在求最好函数的过程中我们发现最好一次函数的误差测试出来不满意我们应该怎么做 增加模型次数或者分类讨论可以换二次三次等的模型找到最适合的 15、机器学习在求最好函数的过程中overfitting是什么 函数模型太复杂了 增加函数次数training data的误差变小但是Test data的误差变大虽然当我们增加函数次数时可以使training data的Average Error越来越小但是Test data的表现缺不尽如人意甚至在五次方程时大大超出了我们的预估。那么这种现象就叫做’overfitting。 16、机器学习选模型的时候是选training data的误差最小的还是选Test data的误差最小的 选Test data的误差最小的肯定是选Test data的误差最小的 17、机器学习选模型的时候函数的次数越高越好么 最合适的才是最好的方程不是次数越复杂越好所以我们要选择一个最合适的选Test data的误差最小的 18、怎么解决overfitting的问题 收集更多数据用来测试collect more data 19、在机器学习测试最好函数的过程中我们发现同一个x对应多个y可能的原因是什么 遗漏因素我们少考虑了因素比如宝可梦的种族 分类讨论或者可以分类讨论不同的种族的宝可梦对应不同的 线性模型 这里分类讨论比增加函数次数得到的test data的误差更小也不一定或者有其它更好的模型 20、在机器学习测试最好函数的过程中如何对Loss Function来 Regularization为什么要对Loss Function来Regularization 平滑化Regularization就是Loss function 平滑化 正确函数一般是平滑的因为一般平滑smoother的曲线才是我们需要的那些抖动特别大的一看起来就不对 regularization[,rɛɡjʊlərɪzeʃən] n. 规则化调整合法化 21、为什么在对Loss Function 来 Regularization使平滑化 的过程中增加的参数没有bias偏移 一般没有帮助因为线性函数的bias对函数平滑没有帮助 二、内容在总结中 转载于:https://www.cnblogs.com/Renyi-Fan/p/10965524.html