马春杰杰博客
致力于深度学习经验分享!

Pytorch基础__F.relu和nn.ReLU的区别?

简要概括就是:F.relu当函数用,nn.ReLU当模块定义用。

F.relu()一般在forward中用,nn.ReLU()定义网络结构的时候用。

比如:

注意:当用print(net)输出时,会有nn.ReLU()层,而F.ReLU()是没有输出的。

赞(285) 打赏
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《Pytorch基础__F.relu和nn.ReLU的区别?》
文章链接:https://www.machunjie.com/deeplearning/pytorch/998.html
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

评论 抢沙发

觉得文章有用就打赏一下文章作者

非常感谢你的打赏,我们将继续提供更多优质内容,让我们一起创建更加美好的网络世界!

支付宝扫一扫

微信扫一扫

:smile: :sad: :arrow: :cool: :confused: :cry: :eek: :evil: :exclaim: :idea: :lol: :mad: :mrgreen: :neutral: :question: :razz: :redface: :rolleyes: :surprised: :wink: :biggrin: :twisted: