首页
新闻
会员
周边
捐助
园子
·
关注
·
粉丝
·
会员
·
随便看看
·
消息
欢迎,请先
登录
或者
注册
。
登录
/
注册
闪存
博客
发言
小组
投递
新闻
提问
博问
添加
收藏
文库
问题反馈
问题列表
我关注的
我的博问
博问标签
深度学习中,损失函数的计算值不重要,重要的是基于它的求导反向传播,可以这么理解吗?
0
悬赏园豆:
20
[待解决问题]
问题的想法来自于,在看论文《DANN:Unsupervised Domain Adaptation by Backpropagation》中的一个公式。
作者通过定义一个伪函数Rλ(x),将公式变形为如下
对比这两个公式,在作者伪函数的定义下,其偏导是完全相同的,也就是它们的反向传播调参是相同的;
但明显的正向计算损失值,会有 - λ 的参数没有乘
因此我有了这个想法,损失函数的计算值不重要,只要它的求导反向传播可以很好的找到极点就行
不知道我这个想法对不对?或者论文的公式我有什么疏漏的地方吗?
神经网络
损失函数
梯度下降
一万亿颗星
|
初学一级
|
园豆:
158
提问于:2022-07-27 16:29
显示帮助
使用"Ctrl+Enter"可进行快捷提交,评论支持部分 Markdown 语法:[link](http://example.com) _italic_ **bold** `code`。
<
>
分享
分享您的问题
所有回答(1)
0
你的标题说的也没错
https://microsoft.github.io/ai-edu/基础教程/A2-神经网络基本原理/第1步 - 基本知识/03.0-损失函数.html
〆灬丶
|
园豆:2314
(老鸟四级)
|
2022-07-27 20:02
编辑文本
预览
上传图片
Ctrl+Enter键快速提交
清除回答草稿
您需要
登录
以后才能回答,未注册用户请先
注册
。