About 27 results
Open links in new tab
  1. 梯度(gradient)到底是个什么东西?物理意义和数学意义分别是 …

    我会使用尽量少的数学符号描述梯度,着重于意义而非计算。一个直观的例子,在机器学习领域有个术语叫「梯度下降」,你可以想象在群山之中,某个山的半山腰有只小兔子打算使用梯度下 …

  2. 梯度(gradient)到底是个什么东西?物理意义和数学意义分别是 …

    梯度(gradient) 的概念. 在空间的每一个点都可以确定无限多个方向,一个多元函数在某个点也必然有无限多个方向。因此,导数在这无限多个方向导数中最大的一个(它直接反映了函数在这 …

  3. 如何理解 natural gradient descent? - 知乎

    natural gradient在RL里面比较有用,特别是在exploration上。 可以参考VIME,里面推出来的公式就是natural gradient。 以及david blei 的SVI里面也有讲到,里面是假设了所有的prior是exp …

  4. 哪里有标准的机器学习术语(翻译)对照表? - 知乎

    梯度下降法 (Gradient Descent) 一种通过计算并且减小梯度将损失降至最低的技术,它以训练数据为条件,来计算损失相对于模型参数的梯度。 通俗来说,梯度下降法以迭代方式调整参数, …

  5. 梯度消失问题为什么不通过 gradient scaling 来解决? - 知乎

    May 4, 2018 · 自问自答一下吧,我觉得很多人都在过度解释,认为 gradient scaling 从原理上讲不通。但是其实 gradient scaling 是可以正常工作的。实践中没人用 gradient scaling 的原因就是 …

  6. Gradient Reversal Layer指什么? - 知乎

    Gradient Reversal Layer. 梯度下降是最小化目标函数,向负的梯度方向优化就是最大化目标函数。 Domain Adaptation by Backpropagation. 这个模型有三部分: 绿色(后文用G指代):特征提 …

  7. 如何理解Adam算法(Adaptive Moment Estimation)? - 知乎

    全程为Adaptive Gradient,意思就是,学习参数的更新率要适当地根据每个参数的历史几率调整,怎么调整呢? 我们把每个参数的历史梯度值给加起来,然后更新率和这个值负相关,这样 …

  8. CNN卷积神经网络的始祖文是哪篇? - 知乎

    卷积神经网络(CNN)的开创性工作可以追溯到 Yann LeCun 在 1998 年发表的论文,论文题目为:“Gradient-based learning applied to document recognition”。 这篇论文介绍了一种名为 …

  9. 基于树的adaboost和Gradient Tree Boosting区别? - 知乎

    谢邀。 直接参考Machine Learning:A Probabilistic Perspective(MLAPP)的16.4节——Boosting。 该节概括了几种常用的boosting方法,包括L2Boosting、Gradient Boosting …

  10. 为什么ppo优于policy gradient? - 知乎

    而policy gradient 本身是一个 on-policy 的算法,所以 ppo 采用了重要性采样的方式,用重要性权重来修正,使得 off-policy 能近似等同于 on-policy。 重要性采样 policy gradient 是 on-policy …