er-guo-tou:
博客地址:https://www.cnblogs.com/er-guo-tou/
[转]请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function?