这是最好不要使用的情况之一,最好自己从模型继承并执行所需的操作。
例如nn.Sequential
1 2 3 4 |
class MyModel(nn.Module): def forward(self, input): return input ** 2 + 1 model = MyModel() |
但是,如果你想要一个等效的层,你可以很容易在pytorch中写它Lambda
1 2 3 4 5 6 |
class LambdaLayer(nn.Module): def __init__(self, lambd): super(LambdaLayer, self).__init__() self.lambd = lambd def forward(self, x): return self.lambd(x) |
现在你可以用它, 就像你在Keras中一样:
1 |
model.add(Lambda(lambda x: x ** 2)) |
本文最后更新于2020年12月3日,已超过 1 年没有更新,如果文章内容或图片资源失效,请留言反馈,我们会及时处理,谢谢!