当前位置: 首页 > news >正文

购物网站做兼职拔萝卜在线视频免费观看

购物网站做兼职,拔萝卜在线视频免费观看,百度网站诚信认证,江宁网站建设价位Least Square Method 1、相关的矩阵公式2、线性回归3、最小二乘法3.1、损失函数#xff08;Loss Function#xff09;3.2、多维空间的损失函数3.3、解析法求解3.4、梯度下降法求解 1、相关的矩阵公式 P r e c o n d i t i o n : ξ ∈ R n , A ∈ R n ∗ n i : σ A ξ σ ξ… Least Square Method 1、相关的矩阵公式2、线性回归3、最小二乘法3.1、损失函数Loss Function3.2、多维空间的损失函数3.3、解析法求解3.4、梯度下降法求解 1、相关的矩阵公式 P r e c o n d i t i o n : ξ ∈ R n , A ∈ R n ∗ n i : σ A ξ σ ξ A T i i : σ ξ T A ξ σ ξ A T ξ A ξ i i i : ( A B ) T B T A T i v : ( A B ) T A T B T v : ∥ ξ ∥ ξ T ξ \begin{array}{l} Precondit{\rm{i}}on:\xi \in {R^n},A \in {R^{n*n}}\\ \\ i:\frac{{\sigma A\xi }}{{\sigma \xi }} {A^T}\\ \\ ii:\frac{{\sigma {\xi ^T}A\xi }}{{\sigma \xi }} {A^T}\xi A\xi \\ \\ iii:{\left( {AB} \right)^T} {B^T}{A^T}\\ \\ iv:{\left( {A B} \right)^T} {A^T} {B^T}\\ \\ v:\left\| \xi \right\| {\xi ^T}\xi \end{array} Precondition:ξ∈Rn,A∈Rn∗ni:σξσAξ​ATii:σξσξTAξ​ATξAξiii:(AB)TBTATiv:(AB)TATBTv:∥ξ∥ξTξ​ 2、线性回归 线性回归Linear Regression个人理解大概是说一组数据基本上服从线性分布。举一个在二维平面中线性回归的例子如下图所示我们可以找到一条表达式为 y a x b yaxb yaxb的直线来大概的拟合这些数据。进而我们可以用这条直线去预测新输入的点的相应的坐标。那么这种寻找线性方程去拟合数据的方式我们称之为线性回归。 3、最小二乘法 3.1、损失函数Loss Function 在二维平面中我们可以设这条可以拟合大多数数据的直线的表达式如下: h ( θ ) θ 1 x θ 2 h\left( \theta \right) {\theta _1}{x} {\theta _2} h(θ)θ1​xθ2​ 其中 θ 1 {{\theta _1}} θ1​和 θ 2 {{\theta _2}} θ2​就是 y a x b y ax b yaxb中的 a a a和 b b b只是换了一种表达而已。 接着可以求得平面上每一个点在这条直线上对应的坐标即估计值 h 1 ( θ ) θ 1 x 1 θ 2 h 2 ( θ ) θ 1 x 2 θ 2 . . . . h n ( θ ) θ 1 x n θ 2 \begin{array}{l} {h_1}\left( \theta \right) {\theta _1}{x_1} {\theta _2}\\ {h_2}\left( \theta \right) {\theta _1}{x_2} {\theta _2}\\ ....\\ {h_n}\left( \theta \right) {\theta _1}{x_n} {\theta _2} \end{array} h1​(θ)θ1​x1​θ2​h2​(θ)θ1​x2​θ2​....hn​(θ)θ1​xn​θ2​​ 再求这些点在直线上的坐标和真实坐标的差的平方就得到损失函数的表达式。 L ( θ ) ∑ i 1 m ( h i ( θ ) − f ( x i ) ) 2 L\left( \theta \right) \sum\limits_{i 1}^m {{{\left( {{h_i}\left( \theta \right) - f\left( {{x_i}} \right)} \right)}^2}} L(θ)i1∑m​(hi​(θ)−f(xi​))2 其中 f ( x i ) {f\left( {{x_i}} \right)} f(xi​)则是 x i {{x_i}} xi​对应的真实坐标值。 因此可以通过损失函数 L ( θ ) L\left( \theta \right) L(θ)来找出适当的 θ 1 {{\theta _1}} θ1​和 θ 2 {{\theta _2}} θ2​使其 f ( x i ) {f\left( {{x_i}} \right)} f(xi​)之间的方差最小。求解方法放在后面讲。 3.2、多维空间的损失函数 在 m m m维线性空间中有 n n n个点。其对应的预测方程应该如下 h 1 ( θ ) θ 1 x 11 θ 2 x 12 . . . θ m − 1 x 1 m − 1 θ m h 2 ( θ ) θ 1 x 21 θ 2 x 22 . . . θ m − 1 x 2 m − 1 θ m . . . h n ( θ ) θ 1 x n 1 θ 2 x n 2 . . . θ m − 1 x n m − 1 θ m \begin{array}{l} {h_1}\left( \theta \right) {\theta _1}{x_{11}} {\theta _2}{x_{12}} ... {\theta _{m - 1}}{x_{1m - 1}} {\theta _m}\\ {h_2}\left( \theta \right) {\theta _1}{x_{21}} {\theta _2}{x_{22}} ... {\theta _{m - 1}}{x_{2m - 1}} {\theta _m}\\ ...\\ {h_n}\left( \theta \right) {\theta _1}{x_{n1}} {\theta _2}{x_{n2}} ... {\theta _{m - 1}}{x_{nm - 1}} {\theta _m} \end{array} h1​(θ)θ1​x11​θ2​x12​...θm−1​x1m−1​θm​h2​(θ)θ1​x21​θ2​x22​...θm−1​x2m−1​θm​...hn​(θ)θ1​xn1​θ2​xn2​...θm−1​xnm−1​θm​​ 其中 n m nm nm方程数量等比未知数多才能有解。损失函数的表达式依旧如此 L ( θ ) ∑ i 1 m ( h i ( θ ) − f ( x i ) ) 2 L\left( \theta \right) \sum\limits_{i 1}^m {{{\left( {{h_i}\left( \theta \right) - f\left( {{x_i}} \right)} \right)}^2}} L(θ)i1∑m​(hi​(θ)−f(xi​))2 那么再将以上的所有变量矩阵化 可以得到损失函数的表达式为 L ( θ ) ∥ X θ − F ∥ 2 ( X θ − F ) T ( X θ − F ) L\left( \theta \right) {\left\| {X\theta - F} \right\|^2} {\left( {X\theta - F} \right)^T}\left( {X\theta - F} \right) L(θ)∥Xθ−F∥2(Xθ−F)T(Xθ−F) 再展开化简 L ( θ ) ∥ X θ − F ∥ 2 ( X θ − F ) T ( X θ − F ) ( θ T X T − F T ) ( X θ − F ) θ T X T X θ − θ T X T F − F T X θ F T F θ T X T X θ − 2 F T X θ F T F \begin{array}{l} L\left( \theta \right) {\left\| {X\theta - F} \right\|^2} {\left( {X\theta - F} \right)^T}\left( {X\theta - F} \right)\\ \\ \left( {{\theta ^T}{X^T} - {F^T}} \right)\left( {X\theta - F} \right) {\theta ^T}{X^T}X\theta - {\theta ^T}{X^T}F - {F^T}X\theta {F^T}F\\ \\ {\theta ^T}{X^T}X\theta - 2{F^T}X\theta {F^T}F \end{array} L(θ)∥Xθ−F∥2(Xθ−F)T(Xθ−F)(θTXT−FT)(Xθ−F)θTXTXθ−θTXTF−FTXθFTFθTXTXθ−2FTXθFTF​ 根据上文我们知道化简的目的是为了找到适当的 θ \theta θ使得损失函数 L ( θ ) L\left( \theta \right) L(θ)最小而常用的求 θ \theta θ有两种分别是解析法求解和梯度下降法。 3.3、解析法求解 从高数可以知当偏导等于零时该点是极值点说的不严谨emm。所以我们直接求偏导另其为零即可得 θ \theta θ。 σ L ( θ ) σ θ 2 X T X θ − 2 X T F 0 θ ( X T X ) − 1 X T F \begin{array}{l} \frac{{\sigma L\left( \theta \right)}}{{\sigma \theta }} 2{X^T}X\theta - 2{X^T}F 0\\ \\ \theta {\left( {{X^T}X} \right)^{ - 1}}{X^T}F \end{array} σθσL(θ)​2XTXθ−2XTF0θ(XTX)−1XTF​ 但这种方法要求 X T X {{{X^T}X}} XTX是可逆的即行列式不为零or满秩。很多时候这个条件并不成立所以在机器学习(Machine Learning)中经常用到梯度下降法。 3.4、梯度下降法求解 梯度下降基本思想是先随便取一个 θ i {\theta _i} θi​然后带入下式看看损失函数多大然后再在 θ i {\theta _i} θi​基础上取一个稍微小一点或大一点的 θ j {\theta _j} θj​带入下式看看此时的损失函数多大。如此往复找到那个最优的 θ \theta θ的取值。 L ( θ i ) θ i T X T X θ i − 2 F T X θ i F T F L\left( {{\theta _{\rm{i}}}} \right) {\theta _i}^T{X^T}X{\theta _i} - 2{F^T}X{\theta _i} {F^T}F L(θi​)θi​TXTXθi​−2FTXθi​FTF
http://www.zqtcl.cn/news/75669/

相关文章:

  • 一个云主机 多个网站威海千淼网站建设
  • 网站首页index.html建筑工程网络软件
  • 湖北省住房城乡建设厅网站上海网络推广外包
  • 高校后勤网站建设进行公司网站建设方案
  • 西安建设学院网站首页宣传片制作软件app
  • 动静分离网站架构射阳建设网站
  • 有没有catia做幕墙的网站苏州园区限电
  • 集团网站制作怎么做点击图片跳转网站
  • 如何申请域名建立网站网站推广过程叙述
  • 东阳做网站的公司网站访问次数受限
  • 做一个卖东西的网站多少钱软件工程师主要做什么
  • 北京营销型网站建设培训班辽宁鹤城建设集团网站
  • 网站知识内部网站建设_
  • wordpress导航编辑器企业网站优化官网
  • 宁波海曙网站开发公司电话求个网站你会感谢我的
  • 求做外宣图网站如何建一个网站教程
  • 网站建设的安全性贵州省住房和城乡建设部官方网站
  • 做网站公司怎么赚钱怎么让自己做的网站让别人看到
  • 我有域名有服务器怎么建设网站企业管理咨询公司招聘
  • 网站改版对网站优化影响最大的问题是什么巴中哪里做网站
  • 网站专题策划方案书官方网站下载12306
  • 网站建设发专业人才培养方案网站建设与维护中
  • 一元购网站建设方案书大连app开发多少钱
  • 做网站电脑配置要求个高吗微网站方案
  • 网站建设资料准备免费ai图片生成器
  • 合肥网页模板建站网站优化插件
  • 广州做网站怎么样浏览器正能量不良网站
  • 网站备案与所在地平面设计图100张
  • 网站做优化应该具备什么台州网站建设慕枫
  • 网页自助建站都昌网站建设