2020-04-02
阅读量:
1261
Relu是中间层用的还是输出层用的?
激活函数的作用是为了增加神经网络模型的非线性。所以中间层一般要求是非线性的,Relu函数也是非线性的,用在中间层,输出层的选择要看是分类问题还是回归问题,一般而言,回归问题用恒等函数,分类问题用softmax函数。






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论