ReLU函数的定义域是,值域是。这个激活函数可以理解为一个关于0的阈值。ReLU在近几年非常流行。相对于sigmoid()函数和tanh()函数,ReLU函数对于随机梯度下降的收敛有很大的加速作用,克里泽夫斯基(Alex Krizhevsky)等人的论文指出这个加速作用强度是其他两种函数的6倍之多。同时,ReLU函数做的是阈值计算,不是指数运算,更加节省计算资源。但是它的缺点也显而易见,ReLU单元容易“死掉”,当一个很大的梯度流过ReLU的神经元时,神经元将无法被其他任何数据点再次激活,流过这个神经元的梯度将都变成0,而且是不可逆转的。通过合理地设置学习率,出现这种现象的概率会降低。
除了这些激活函数外,还有LeakyReLU函数、Maxout()函数等。需要注意的是:在同一网络中,很少会混合使用不同类型的激活函数。