当前位置: 首页 > news >正文

南京网站推广哪家便宜重庆项目信息网

南京网站推广哪家便宜,重庆项目信息网,虎丘做网站价格,济南住建官网经典策略梯度算法 DDPG算法 DDPG 算法被提出的初衷其实是 DQN 算法的一个连续动作空间版本扩展。深度确定性策略梯度算法#xff08; deep deterministic policy gradient#xff0c;DDPG#xff09;#xff0c;是一种确定性的策略梯度算法。 由于DQN算法中动作是通过贪…经典策略梯度算法 DDPG算法 DDPG 算法被提出的初衷其实是 DQN 算法的一个连续动作空间版本扩展。深度确定性策略梯度算法 deep deterministic policy gradientDDPG是一种确定性的策略梯度算法。 由于DQN算法中动作是通过贪心策略或者argmax的方式从Q函数间接得到。要想适配连续动作空间考虑将选择动作的过程编程一个直接从状态映射到具体动作的函数 μ θ ( s ) \mu_\theta (s) μθ​(s),也就是actor网络中求解Q函数以及贪心选择动作这两个过程合并为一个函数。Actor 的任务就是寻找这条曲线的最高点并返回对应的横坐标即最大 Q 值对应的动作。 这里相当于是把 DQN 算法中 ε − greedy \varepsilon-\text{greedy} ε−greedy策略函数部分换成了 Actor 。注意 Actor 网络 μ θ ( s ) \mu_\theta (s) μθ​(s) 与输出概率分布的随机性策略 stochastic policy 不同输出的是一个值因此也叫做确定性策略 deterministic policy 。 在强化学习基础算法的研究改进当中基本无外乎几个亘古不变的主题首先是如何提高对值函数的估计保证其准确性即尽量无偏且低方差例如最开始的用深度神经网络替代简单的Q表、结合蒙特卡洛和时序差分的 TD(λ) 、引入目标网络以及广义优势估计等等其次是如何提高探索以及平衡探索-利用的问题尤其在探索性比较差的确定性策略中例如 DQN 和 DDPG 算法都会利用各种技巧来提高探索例如经验回放、 ε − greedy \varepsilon-\text{greedy} ε−greedy 策略、噪声网络等等。这两个问题是强化学习算法的基础核心问题希望能够给读者在学习和研究的过程中带来一定的启发。 DDPG算法优缺点 DDPG 算法的优点主要有 适用于连续动作空间DDPG 算法采用了确定性策略来选择动作这使得它能够直接处理连续动作空间的问题。相比于传统的随机策略确定性策略更容易优化和学习因为它不需要进行动作采样缓解了在连续动作空间中的高方差问题。高效的梯度优化DDPG 算法使用策略梯度方法进行优化其梯度更新相对高效并且能够处理高维度的状态空间和动作空间。同时通过 Actor-Critic 结构算法可以利用值函数来辅助策略的优化提高算法的收敛速度和稳定性。经验回放和目标网络这是老生常谈的内容了经验回放机制可以减少样本之间的相关性提高样本的有效利用率并且增加训练的稳定性。目标网络可以稳定训练过程避免值函数估计和目标值之间的相关性问题从而提高算法的稳定性和收敛性。 DDPG缺点: 只适用于连续动作空间这既是优点也是缺点。高度依赖超参数DDPG 算法中有许多超参数需要进行调整除了一些 DQN的算法参数例如学习率、批量大小、目标网络的更新频率等还需要调整一些 OU 噪声的参数 调整这些超参数并找到最优的取值通常是一个挑战性的任务可能需要大量的实验和经验。高度敏感的初始条件DDPG 算法对初始条件非常敏感。初始策略和值函数的参数设置可能会影响算法的收敛性和性能需要仔细选择和调整。容易陷入局部最优由于采用了确定性策略可能会导致算法陷入局部最优难以找到全局最优策略。为了增加探索性需要采取一些措施如加入噪声策略或使用其他的探索方法。 TD3算法是在DDPG的基础上进行改进主要是以下三点改进一是 双 Q 网络体现在名字中的 twin二是 延迟更新三是 噪声正则 noise regularisation 双Q网络的思想在 DDPG 算法中的 Critic 网络上再加一层这样就形成了两个 Critic 网络计算 TD 误差的时候就可以取两个Q值中较小的那个。 延迟更新在训练中 Actor 的更新频率要低于 Critic 的更新频率。在学习过程中Critic 是不断更新的可以想象一下假设在某个时刻 Actor 好不容易达到一个最高点这个时候 Critic 又更新了那么 Actor 的最高点就被打破了这样一来 Actor 就会不断地追逐 Critic这样就会造成误差的过分累积进而导致 Actor 的训练不稳定甚至可能会发散。可以在训练中让 Actor 的更新频率低于 Critic 的更新频率这样一来 Actor 的更新就会比较稳定不会受到 Critic 的影响从而提高算法的稳定性和收敛性。 噪声正则目标策略平滑正则化可以给 Critic 引入一个噪声提高其抗干扰性这样一来就可以在一定程度上提高 Critic 的稳定性从而进一步提高算法的稳定性和收敛性。 练习题 DDPG 算法是 off-policy 算法吗为什么 DDPG 算法是一个 off-policy 的算法原因是因为它使用了一个确定性的策略而不是一个随机的策略。DDPG 通过 off-policy 的方式来训练一个确定性策略这样可以增强探索能力同时也可以利用经验回放和目标网络的技巧来提高稳定性和收敛速度。 软更新相比于硬更新的好处是什么为什么不是所有的算法都用软更新 软更新可以使目标网络的参数变化更平滑避免了目标标签的剧烈波动从而提高了算法的稳定性和收敛性。 可以使目标网络更接近当前网络从而减少了目标网络和当前网络之间的偏差提高了算法的性能。 软更新需要在每次迭代中更新目标网络这会增加计算的开销而硬更新只需要在固定的间隔中更新一次目标网络更节省资源。可能不适用于一些基于离散动作空间的算法如DQN因为这些算法需要一个稳定的目标网络来提供一个清晰的目标而软更新会导致目标网络不断变化 相比于DDPG 算法TD3 算法做了哪些改进请简要归纳。 一是 双 Q 网络体现在名字中的 twin二是 延迟更新三是 噪声正则 TD3 算法中 Critic 的更新频率一般要比 Actor 是更快还是更慢为什么 TD3 算法中 Critic 的更新频率一般要比 Actor 是更快的.Critic 的更新可以使目标网络的参数变化更平滑避免了目标标签的剧烈波动从而提高了算法的稳定性和收敛性。 PPO算法 不同于 DDPG 算法PPO 算法是一类典型的 Actor-Critic 算法既适用于连续动作空间也适用于离散动作空间。PPO 算法的主要思想是通过在策略梯度的优化过程中引入一个重要性权重来限制策略更新的幅度从而提高算法的稳定性和收敛性。 重要性采样 是一种估计随机变量的期望或者概率分布的统计方法。它的原理也很简单假设有一个函数 f ( x ) f(x) f(x)需要从分布 p ( x ) p(x) p(x) 中采样来计算其期望值但是在某些情况下我们可能很难从 p ( x ) p(x) p(x) 中采样这个时候我们可以从另一个比较容易采样的分布 q ( x ) q(x) q(x) 中采样来间接地达到从 p ( x ) p(x) p(x) 中采样的效果。 E p ( x ) [ f ( x ) ] ∫ a b f ( x ) p ( x ) q ( x ) q ( x ) d x E q ( x ) [ f ( x ) p ( x ) q ( x ) ] (12.1) \tag{12.1} E_{p(x)}[f(x)]\int_{a}^{b} f(x) \frac{p(x)}{q(x)} q(x) d xE_{q(x)}\left[f(x) \frac{p(x)}{q(x)}\right] Ep(x)​[f(x)]∫ab​f(x)q(x)p(x)​q(x)dxEq(x)​[f(x)q(x)p(x)​](12.1) 这样一来原问题就变成了只需要从 q ( x ) q(x) q(x) 中采样然后计算两个分布之间的比例 中采样然后计算两个分布之间的比例 中采样然后计算两个分布之间的比例\frac{p(x)}{q(x)}$即可这个比例称之为重要性权重。 不难看出当 q ( x ) q(x) q(x)越接近 p ( x ) p(x) p(x) 的时候方差就越小也就是说重要性权重越接近于 1 的时候反之越大。 而策略梯度算法的高方差主要来源于 Actor 的策略梯度采样估计PPO 算法的核心思想就是通过重要性采样来优化原来的策略梯度估计。 本质上 PPO 算法就是在 Actor-Critic 算法的基础上增加了重要性采样的约束而已从而确保每次的策略梯度估计都不会过分偏离当前的策略也就是减少了策略梯度估计的方差从而提高算法的稳定性和收敛性。 PPO 算法究竟是 o n − p o l i c y on-policy on−policy 还是 o f f − p o l i c y off-policy off−policy 的呢有读者可能会因为 PPO 算法在更新时重要性采样的部分中利用了旧的 Actor 采样的样本就觉得 PPO 算法会是 o f f − p o l i c y off-policy off−policy 的。实际上虽然这批样本是从旧的策略中采样得到的但我们并没有直接使用这些样本去更新我们的策略而是使用重要性采样先将数据分布不同导致的误差进行了修正即是两者样本分布之间的差异尽可能地缩小。换句话说就可以理解为重要性采样之后的样本虽然是由旧策略采样得到的但可以近似为从更新后的策略中得到的即我们要优化的 Actor 和采样的 Actor 是同一个因此 PPO 算法是 on-policy 的。 练习题 为什么 DQN 和 DDPG 算法不使用重要性采样技巧呢 DQN 和 DDPG 算法虽然都是 off-policy 的但是它们的目标策略都是确定性的即给定状态动作是唯一确定的。这样的话重要性采样的比例不是 0就是 1/p其中 p 是采样策略的概率。这样的重要性采样没有意义也没有必要。 PPO 算法原理上是 on-policy 的但它可以是 off-policy 的吗或者说可以用经验回放来提高训练速度吗?为什么提示是可以的但条件比较严格 可以的。但条件比较严格 数据的采样策略和目标策略之间的差异不能太大否则会导致重要性采样的比例过大或过小影响梯度的估计。 数据的采样策略和目标策略之间的 KL 散度不能超过一个阈值否则会导致目标函数的近似失效影响优化的效果。 数据的采样策略和目标策略之间的相似度不能太低否则会导致策略的收敛速度变慢影响学习的效率。 PPO 算法更新过程中在将轨迹样本切分个多个小批量的时候可以将这些样本顺序打乱吗为什么 可以将这些样本顺序打乱。 将样本顺序打乱可以增加数据的多样性避免因为样本之间的相关性而影响学习的效果。也可以减少因为样本顺序不同而导致的策略更新的不一致性提高学习的稳定性。 为什么说重要性采样是一种特殊的蒙特卡洛采样 允许在复杂问题中利用已知的简单分布进行采样从而避免了直接采样困难分布的问题同时通过适当的权重调整可以使得蒙特卡洛估计更接近真实结果。 SAC算法 SAC 算法是一种基于最大熵强化学习的策略梯度算法它的目标是最大化策略的熵从而使得策略更加鲁棒。SAC 算法的核心思想是通过最大化策略的熵使得策略更加鲁棒。 确定性策略是指在给定相同状态下总是选择相同的动作随机性策略则是在给定状态下可以选择多种可能的动作。 而确定性与随机性优缺点 确定性策略 优势稳定性且可重复性。由于策略是确定的因此可控性也比较好在一些简单的环境下会更容易达到最优解因为不会产生随机性带来的不确定性实验也比较容易复现。劣势缺乏探索性。由于策略是确定的因此在一些复杂的环境下可能会陷入局部最优解无法探索到全局最优解所以读者会发现目前所有的确定性策略算法例如 DQN 、DDPG 等等都会增加一些随机性来提高探索。此外面对不确定性和噪音的环境时确定性策略可能显得过于刻板无法灵活地适应环境变化。 随机性策略 优势更加灵活。由于策略是随机的这样能够在一定程度上探索未知的状态和动作有助于避免陷入局部最优解提高全局搜索的能力。在具有不确定性的环境中随机性策略可以更好地应对噪音和不可预测的情况。 境变化。 随机性策略 优势更加灵活。由于策略是随机的这样能够在一定程度上探索未知的状态和动作有助于避免陷入局部最优解提高全局搜索的能力。在具有不确定性的环境中随机性策略可以更好地应对噪音和不可预测的情况。劣势不稳定。正是因为随机所以会导致策略的可重复性太差。另外如果随机性太高可能会导致策略的收敛速度较慢影响效率和性能。
http://www.zqtcl.cn/news/893353/

相关文章:

  • 重点实验室网站建设宁波seo优化服务
  • 怎么用手机做刷会员网站网页设计指什么
  • 小企业网站建设多少钱网页设计图片剧中
  • 新乐做网站优化如何做二级域名子目录网站
  • 如何在网站上做推广中国在数码网站注册域名好 gt
  • 电子商务电商网站饿建设管理网站建设
  • php网站出现乱码网站建设项目总结
  • 网站建设公司墨子网络用我在线网站建设
  • 长寿网站建设公司服装设计有哪些网站
  • 苍溪规划和建设局网站网页设计制作报告
  • html5网站 源码360浏览器个别网页打不开怎么解决
  • 找个小网站建设网站优点
  • 台州网站建设优化网站建设加微信
  • 公司网站建设费会计分录义乌商城集团的网站建设
  • 彩票网站建设基本流程网站文章页做百度小程序
  • 在淘宝上做代销哪个网站好推广普通话喜迎二十大的手抄报怎么画
  • 知名网站建设开发受欢迎的唐山网站建设
  • 普洱网站搭建创建论坛网站需要多少钱
  • 自己做的网站如何在网络上展示wordpress 手动采集
  • 上海做网站要多少钱wordpress教程app
  • 房地产设计网站沈阳人流哪个医院好安全
  • 贵阳专业做网站微信小程序商城源代码
  • seo建站收费地震郑州做网站开发销售
  • 东莞整站优化推广公司找火速建设企业网站要多少钱
  • 网站备案 两个域名东莞保安公司联系电话
  • 网站专业制作公司律师如何在网上推广
  • 免费培训seo网站一直免费的服务器下载安装
  • 广州h5网站制作公司做竞价网站 要注意什么
  • 太原网站搭建推广id怎么编辑wordpress
  • 网站开发网站设计制作广告设计与制作基础知识