About 3,770,000 results
Open links in new tab
  1. 深度学习的loss一般收敛到多少? - 知乎

    这个链接是回归问题的loss,本回答说一下分类问题的。 交叉熵 公式这里就不放了(手机打字不方便),可以看出,其实loss就是log(Pi)的平均值,Pi指的是预测ground truth的概率。所以,如 …

  2. 损失函数|交叉熵损失函数 - 知乎

    Mar 28, 2022 · Deng [4]在2019年提出了ArcFace Loss,并在论文里说了Softmax Loss的两个缺点:1、随着分类数目的增大,分类层的线性变化矩阵参数也随着增大;2、对于封闭集分类问 …

  3. 大模型优化利器:RLHF之PPO、DPO - 知乎

    Jan 21, 2025 · 最终,我们可以得出 DPO 的 loss 如下所示: 这就是 DPO 的 loss。DPO 通过以上的公式转换把 RLHF 巧妙地转化为了 SFT,在训练的时候不再需要同时跑 4 个模型(Actor …

  4. 究竟什么是损失函数 loss function? - 知乎

    loss函数是什么?Loss函数是衡量模型预测值与真实值之间差距的度量标准,也是优化算法的目标函数。模型本身能够train到哪一种程度,跟Loss函数息息相关,选择合适的Loss函数可以让模 …

  5. DeepSeek的GRPO算法是什么? - 知乎

    计算损失(Computing the loss) 1. 生成补全(Generating completions) 在每一个训练步骤中,我们从提示(prompts)中采样一个批次(batch),并为每个提示生成一组 G 个补 …

  6. 深度学习当中train loss和valid loss之间的关系? - 知乎

    Nov 8, 2018 · val loss是在验证集上的损失,衡量的是在未见过数据上的拟合能力,也可以说是 泛化能力 。模型的真正效果应该用val loss来衡量。 模型的真正效果应该用val loss来衡量。

  7. 神经网络模型train_loss下降,val_loss一直上升是什么原因? - 知乎

    train loss 不断上升,test loss不断上升,说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题;(最不好的情况) train_loss 不断下降, test_loss 不断上升,和第2种情况类 …

  8. 请问MSE loss 大小多少才表示模型优化效果好呢?0.01大概是什么 …

    主要看评价指标是什么,评价指标是检验模型好坏的标准之一(对,就是之一. 如果你的评价指标就是mseloss,验证集的loss和训练集的loss相差不大(说明没有过拟合),而且你的loss是在 …

  9. 如何看待 Google 最新开源的 Gemma-3 系列大模型? - 知乎

    Google开源第三代Gemma-3系列模型:支持多模态、最多128K输入,其中Gemma 3-27B在大模型匿名竞技场得分超…

  10. 请教一个问题,训练网络时loss为什么要写成running_loss

    因为一个epochs里也是按照很多个batchs进行训练。所以需要把一个epochs里的每次的batchs的loss加起来,等这一个epochs训练完后,会把累加的loss除以batchs的数量,得到这个epochs …

Refresh