站点图标 马春杰杰

Pytorch基础__F.relu和nn.ReLU的区别?

简要概括就是:F.relu当函数用,nn.ReLU当模块定义用。

F.relu()一般在forward中用,nn.ReLU()定义网络结构的时候用。

比如:

注意:当用print(net)输出时,会有nn.ReLU()层,而F.ReLU()是没有输出的。

退出移动版