马春杰杰博客
致力于深度学习经验分享!

Pytorch基础__F.relu和nn.ReLU的区别?

简要概括就是:F.relu函数用,nn.ReLU当模块定义用。

F.relu()一般在forward中用,nn.ReLU()定义网络结构的时候用。

比如:

注意:当用print(net)输出时,会有nn.ReLU()层,而F.ReLU()是没有输出的。

本文最后更新于2021年8月15日,已超过 1 年没有更新,如果文章内容或图片资源失效,请留言反馈,我们会及时处理,谢谢!

如果你对这篇文章有什么疑问或建议,欢迎下面留言提出,我看到会立刻回复!

打赏
未经允许不得转载:马春杰杰 » Pytorch基础__F.relu和nn.ReLU的区别?
超级便宜的原生ChatGPT4.0

留个评论吧~ 抢沙发 评论前登陆可免验证码!

私密评论
  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址(选填,便于回访^_^)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

登录

忘记密码 ?

切换登录

注册