首页 新闻 会员 周边

深度学习中,损失函数的计算值不重要,重要的是基于它的求导反向传播,可以这么理解吗?

0
悬赏园豆:20 [待解决问题]

问题的想法来自于,在看论文《DANN:Unsupervised Domain Adaptation by Backpropagation》中的一个公式。

作者通过定义一个伪函数Rλ(x),将公式变形为如下

对比这两个公式,在作者伪函数的定义下,其偏导是完全相同的,也就是它们的反向传播调参是相同的;

但明显的正向计算损失值,会有 - λ 的参数没有乘

因此我有了这个想法,损失函数的计算值不重要,只要它的求导反向传播可以很好的找到极点就行

不知道我这个想法对不对?或者论文的公式我有什么疏漏的地方吗?

一万亿颗星的主页 一万亿颗星 | 初学一级 | 园豆:158
提问于:2022-07-27 16:29
< >
分享
所有回答(1)
0
〆灬丶 | 园豆:2287 (老鸟四级) | 2022-07-27 20:02
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册