当前位置: 首页 > news >正文

哈尔滨网站制作招聘互动的网站

哈尔滨网站制作招聘,互动的网站,网页设计范例,wordpress 数据库主机EM算法 引言EM算法例子及解法EM算法步骤和说明 引言 EM 算法是一种选代算法#xff0c;1977 年 Dempster 等人总结提出#xff0c;用于含有隐变量(hidden variable)的概率模型参数的极大似然估计#xff0c;或极大后验概率估计EM算法的每次选代由两步组成:E步#xff0c;求… EM算法 引言EM算法例子及解法EM算法步骤和说明 引言 EM 算法是一种选代算法1977 年 Dempster 等人总结提出用于含有隐变量(hidden variable)的概率模型参数的极大似然估计或极大后验概率估计EM算法的每次选代由两步组成:E步求期望 (expectation);M步求极大(maximization)所以这一算法称为期望极大算法(expectation maximizationalgorithm)简称EM算法。 EM算法例子及解法 三硬币模型: 假设有3 硬币分别作 A B C ABC ABC这些硬币正面出现的概率分别是 π \pi π p p p和 q q q进行如下硬币试验:先硬币 A A A根据其结果选出硬币 B B B或硬币 C C C正面选硬币 B B B反面选硬币 C C C;然后掷选出的硬币掷硬币的结果出现正面记作 1出现反面记作 0;独立地重复$n $次试验(这里n10)观测结果如下: 1 , 1 , 0 , 1 , 0 , 0 , 1 , 0 , 1 , 1 1,1,0,1,0,0,1,0,1,1 1,1,0,1,0,0,1,0,1,1 假设只能观测到掷硬币的结果不能观测掷硬币的过程。问如何估计三硬币正面出现的概率即三硬币模型的参数。 模型表达是为 P ( y ∣ θ ) ∑ z P ( y , z ∣ θ ) ∑ z P ( z ∣ θ ) P ( y ∣ z , θ ) π p y ( 1 − p ) y ( 1 − π ) q y ( 1 − q ) 1 − y \begin{align} P(y|\theta) \sum_{z}P(y,z|\theta)\sum_{z}P(z|\theta)P(y|z,\theta) \nonumber\\ \pi p^y (1-p)^y(1-\pi)q^y(1-q)^{1-y} \nonumber \end{align} P(y∣θ)​z∑​P(y,z∣θ)z∑​P(z∣θ)P(y∣z,θ)πpy(1−p)y(1−π)qy(1−q)1−y​ 这里随机变量 y y y是观测变量表示一次试验观测的结果是 1或0;随机变量是隐变量表示未观测到的掷硬币 A A A 的结果; θ ( π , p , q ) \theta(\pi,p,q) θ(π,p,q)是模型参这一模型是以上数据的生成模型注意随机变量 y y y的数据可以观测随机变量 z z z的数据不可观测。 将观察数据表示为 Y ( Y 1 , Y 1 , . . . , Y 1 ) T Y(Y_1,Y_1,...,Y_1)^T Y(Y1​,Y1​,...,Y1​)T,未观察数据表示为 Z ( Z 1 , Z 2 , . . . , Z n ) T Z(Z_1,Z_2,...,Z_n)^T Z(Z1​,Z2​,...,Zn​)T,则观察数据的似然函数为 P ( Y ∣ θ ) ∑ z P ( Z ∣ θ ) P ( Y ∣ Z , θ ) P(Y|\theta)\sum_zP(Z|\theta)P(Y|Z,\theta) P(Y∣θ)z∑​P(Z∣θ)P(Y∣Z,θ) 即 P ( Y ∣ θ ) ∏ j 1 n [ π p y j ( 1 − p ) y j ( 1 − π ) q y j ( 1 − q ) 1 − y j ] P(Y|\theta)\prod_{j1}^{n}[\pi p^{y_j} (1-p)^{y_j}(1-\pi)q^{y_j}(1-q)^{1-{y_j}}] P(Y∣θ)j1∏n​[πpyj​(1−p)yj​(1−π)qyj​(1−q)1−yj​] 考虑求模型参数 θ ( π , p , q ) \theta(\pi,p,q) θ(π,p,q)的极大似然估计即 θ ^ a r g max ⁡ θ l o g P ( Y ∣ θ ) \hat{\theta}arg \max\limits_{\theta}logP(Y|\theta) θ^argθmax​logP(Y∣θ) 这个问题没有解析解只有通过迭代的方法求解。EM算法就是可以用于求解这个问题的一种迭代算法下面给出针对以上问题的EM算法其推导过程省略。 EM算法首先选取参数的初值记作 θ ( 0 ) ( π ( 0 ) , p ( 0 ) , q ( 0 ) ) \theta^{(0)}(\pi^{(0)},p^{(0)},q^{(0)}) θ(0)(π(0),p(0),q(0)),然后通过下面的迭代参数的估计值直至收敛为止。第 i i i次迭代参数的估计值为 θ ( 0 ) ( π ( i ) , p ( i ) , q ( i ) ) \theta^{(0)}(\pi^{(i)},p^{(i)},q^{(i)}) θ(0)(π(i),p(i),q(i))。EM 算法的第 i 1 i1 i1次迭代如下。 E步计算在模型参数 π ( i ) , p ( i ) , q ( i ) \pi^{(i)},p^{(i)},q^{(i)} π(i),p(i),q(i)下观测数据 y i y_i yi​来自掷硬币B的概率 μ i 1 π ( p ( i ) ) y j ( 1 − ( p ( i ) ) ) y j π ( p ( i ) ) y j ( 1 − ( p ( i ) ) ) y j ( 1 − π ) ( q ( i ) ) y j ( 1 − ( q ( i ) ) ) 1 − y j \mu^{i1}\frac{\pi (p^{(i)})^{y_j} (1- (p^{(i)}))^{y_j}}{\pi (p^{(i)})^{y_j} (1- (p^{(i)}))^{y_j}(1-\pi)(q^{(i)})^{y_j}(1-(q^{(i)}))^{1-{y_j}}} μi1π(p(i))yj​(1−(p(i)))yj​(1−π)(q(i))yj​(1−(q(i)))1−yj​π(p(i))yj​(1−(p(i)))yj​​ M步计算模型参数的新估计值 π ( i 1 ) 1 n ∑ j 1 n μ j ( i 1 ) \pi^{(i1)}\frac{1}{n} \sum_{j1}^{n} \mu_j^{(i1)} π(i1)n1​j1∑n​μj(i1)​ p ( i 1 ) ∑ j 1 n μ j ( i 1 ) y j ∑ j 1 n μ j ( i 1 ) p^{(i1)}\frac{ \sum_{j1}^{n} \mu_j^{(i1)}y_j}{ \sum_{j1}^{n} \mu_j^{(i1)}} p(i1)∑j1n​μj(i1)​∑j1n​μj(i1)​yj​​ q ( i 1 ) ∑ j 1 n ( 1 − μ j ( i 1 ) ) y j ∑ j 1 n ( 1 − μ j ( i 1 ) ) q^{(i1)}\frac{ \sum_{j1}^{n} (1-\mu_j^{(i1)})y_j}{ \sum_{j1}^{n} (1-\mu_j^{(i1)})} q(i1)∑j1n​(1−μj(i1)​)∑j1n​(1−μj(i1)​)yj​​ 进行数字计算假设模型参数的初值为 π ( 0 ) 0.5 , p ( 0 ) 0.5 , q ( 0 ) 0.5 \pi^{(0)}0.5,p^{(0)}0.5,q^{(0)}0.5 π(0)0.5,p(0)0.5,q(0)0.5 对 y j 1 y_j1 yj​1与 y j 0 y_j0 yj​0均有 μ j ( 1 ) 0.5 \mu_j^{(1)}0.5 μj(1)​0.5。 根据M步计算得到 π ( 0 ) 0.5 , p ( 0 ) 0.6 , q ( 0 ) 0.6 \pi^{(0)}0.5,p^{(0)}0.6,q^{(0)}0.6 π(0)0.5,p(0)0.6,q(0)0.6 根据E步可以得到 μ j ( 2 ) 0.5 , j 1 , 2 , . . . , 10 \mu_j^{(2)}0.5,j1,2,...,10 μj(2)​0.5,j1,2,...,10 继续迭代得 π ( 0 ) 0.5 , p ( 0 ) 0.6 , q ( 0 ) 0.6 \pi^{(0)}0.5,p^{(0)}0.6,q^{(0)}0.6 π(0)0.5,p(0)0.6,q(0)0.6 于是得到模型参数 θ \theta θ的极大似然估计 π ^ 0.5 , p ^ 0.6 , q ^ 0.6 \hat{\pi}0.5,\hat p0.6,\hat q0.6 π^0.5,p^​0.6,q^​0.6 π 0.5 \pi0.5 π0.5表示硬币A是匀称的这一结果容易理解。 如果取初始值 π ( 0 ) 0.4 , p ( 0 ) 0.6 , q ( 0 ) 0.7 \pi^{(0)}0.4,p^{(0)}0.6,q^{(0)}0.7 π(0)0.4,p(0)0.6,q(0)0.7,那么得到的模型参数的极大似然估计 π ^ 0.4064 , p ^ 0.5368 , q ^ 0.6432 \hat{\pi}0.4064,\hat p0.5368,\hat q0.6432 π^0.4064,p^​0.5368,q^​0.6432。这就是说EM算法与初始值的选择有关选择不同的初值可能得到不同的参数估计值。 EM算法步骤和说明 一般地用Y表示观测随机变量的数据Z表示隐随机变量的数据Y和Z连在一起称为完全数据 (complete-data)观测数据Y又称为不完全数据(incomplete-data)。假设给定观测数据Y其概率分布是 P ( Y ∣ θ ) P(Y|\theta) P(Y∣θ)其中是需要估计的模型参数那么不完全数据Y的似然函数是 P ( Y ∣ θ ) P(Y|\theta) P(Y∣θ)对数似然函数 L ( 0 ) l o g P ( Y ∣ θ ) L(0)logP(Y|\theta) L(0)logP(Y∣θ);假设Y和Z的联合概率分布是 P ( Y Z ∣ θ ) P(YZ|\theta) P(YZ∣θ)那完全的对数似然函数是 l o g P ( Y , Z ∣ θ ) logP(Y,Z|\theta) logP(Y,Z∣θ)。 EM算法通过选代求 L ( θ ) l o g P ( Y ∣ θ ) L(\theta)logP(Y|\theta) L(θ)logP(Y∣θ)的极大似然估计每次代包含两步:E 步求期望:M步求极大化下面来介绍 EM 算法。 输入:观测变量数据 Y Y Y隐变量数据 Z Z Z联合分布 P ( Y , Z ∣ θ ) P(Y,Z|\theta) P(Y,Z∣θ)条件分布 P ( Z ∣ Y , θ ) P(Z|Y,\theta) P(Z∣Y,θ); 输出:模型参数 θ \theta θ。 (1)选择参数的初值 θ ( 0 ) \theta^{(0)} θ(0)开始迭代; (2)E步:记 θ ( i ) \theta^{(i)} θ(i)为第 i i i次代参数的估计值在第 i 1 i1 i1次选代的E步计算 Q ( θ , θ ( i ) ) E Z [ l o g P ( Y , Z ∣ θ ) ∣ Y , θ ( i ) ] ∑ Z l o g P ( Y , Z ∣ θ ) P ( Z ∣ Y , θ ( i ) ) \begin{align} Q(\theta,\theta^{(i)}) E_Z[logP(Y,Z|\theta)|Y,\theta^{(i)}] \nonumber\\ \sum_{Z}logP(Y,Z|\theta)P(Z|Y,\theta^{(i)}) \nonumber\\ \end{align} Q(θ,θ(i))​EZ​[logP(Y,Z∣θ)∣Y,θ(i)]Z∑​logP(Y,Z∣θ)P(Z∣Y,θ(i))​​ 这里 P ( Z ∣ Y , θ ) P(Z|Y,\theta) P(Z∣Y,θ)在给定观测数据 Y Y Y和当前的参数估计 θ ( i ) \theta^{(i)} θ(i)下隐变量数据 Z Z Z的条件概率分布 (3)M步求使 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))极大化的 θ \theta θ,确定第 i 1 i1 i1次迭代的参数的估计值 θ ( i 1 ) \theta^{(i1)} θ(i1) θ ( i 1 ) arg ⁡ max ⁡ θ Q ( θ , θ ( i ) ) \theta^{(i1)}\arg \max \limits_{\theta}Q(\theta,\theta^{(i)}) θ(i1)argθmax​Q(θ,θ(i)) (4)重复第2步和第3步直到收敛。 函数 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))是EM算法的核心称为Q函数Q function。 下面关于 EM 算法作几点说明: 步骤(1)参数的初值可以任意选择但需注意 EM算法对初值是敏感的步骤(2)E步求 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))。Q函数式中Z是未观察数据Y是观测数据注意 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))的第1个变元表示要极大化的参数第2个变元表示参数的当前估计值。每次迭代实际在求 Q Q Q函数及其极大。 步骤(3)M步求 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))的极大化得到 θ ( i 1 ) \theta^{(i1)} θ(i1)完成一次代 θ ( i ) − θ ( i 1 ) \theta^{(i)}-\theta^{(i1)} θ(i)−θ(i1)。后面将证明每次迭代使似然函数增大或达到局部极值。 步骤(4)给出停止迭代的条件一般是对较小的正数 ϵ 1 , ϵ 2 \epsilon_1,\epsilon_2 ϵ1​,ϵ2​若满足 ∣ ∣ θ ( i 1 ) − θ ( i ) ∣ ∣ ϵ 1 或 ∣ ∣ Q ( θ ( i 1 ) , θ ( i ) ) − Q ( θ ( i ) , θ ( i ) ) ∣ ∣ ϵ 2 || \theta^{(i1)}- \theta^{(i)}||\epsilon_1 或||Q(\theta^{(i1)},\theta^{(i)})- Q(\theta^{(i)},\theta^{(i)})||\epsilon_2 ∣∣θ(i1)−θ(i)∣∣ϵ1​或∣∣Q(θ(i1),θ(i))−Q(θ(i),θ(i))∣∣ϵ2​ 则停止迭代
http://www.zqtcl.cn/news/520781/

相关文章:

  • 专业网站建设品牌网站建设基础课件
  • 自学网站编程网站建设银行北京冬奥会纪念币发行时间
  • 个人网站备案需要盖章吗做网站用什么颜色好
  • 在线制作论坛网站做网站开发团队
  • 2017年网站建设工作总结dhru商城网站建设
  • 建设网站需要申请深圳的网站建设的公司
  • 教育类的网站案例门户网站建设推广
  • 网站建设公司哪家比较好外贸网站建设公司价格
  • 做网站大概价格网站备案填写
  • 网站建设容易出现的问题网站建设学习网公司有哪些
  • 做网站的准备什么com域名
  • 百度资料怎么做网站赣州有没有做网站的
  • 网站上地图怎么做的福建省晋江市建设局网站
  • 休闲咖啡厅网站开发目标站内推广的方法和工具
  • 东莞做营销型网站怎样利用网站做引流
  • 国际1688网站网络平台宣传费用
  • 免费网站自助建站18款禁游戏黄app入口
  • 网站建设要经历哪些步骤?wordpress主题king
  • 个人定制网站外贸免费网站建设
  • ASP网站建设实训报告总结宜昌本地网站建设
  • 甘肃省建设厅官方网站张睿建立网站服务器
  • 有没有做博物馆的3d网站网页美工设计岗前培训
  • 如何防止网站被盗长沙知名网站建设
  • 汕尾住房和建设局网站山西招标网
  • 网站建设那好山西建设厅网站
  • 2免费做网站外贸公司注册需要多少钱
  • 莘县网站定制安卓软件开发培训机构
  • 织梦视频网站源码有没有专门做名片的网站
  • 济南本地网站自己做的网站怎么置顶
  • wordpress能做多大的站好用的网站后台