栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

深度学习激活函数对比

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

深度学习激活函数对比

激活函数选择
  • Sigmoid
  • Tanh
  • Relu
  • Leaky Relu
  • 总结

Sigmoid


输入是非常小的负数,输出为0;
输入时非常大的正数,输出为1;
相当于对输出进行了归一化

不足:
1)深层神经网络在更新参数时,需要从输出层到输入层逐层进行链式求导。但是sigmoid的导数的输出时0-0.25,会造成梯度消失,使得参数无法继续更新。
2)希望输入每层神经网络的特征是以0为均值的小数值,但是sigmoid处理后的数据都是整数会使收敛变慢。
3)sigmoid运算存在幂运算,计算复杂度大、训练时间长。

Tanh


优势:输出值为0均值
不足:依旧存在梯度消失和幂运算问题

Relu


优势:在正区间内,解决了梯度消失问题,训练速度快

不足:
1)输出不是以0为均值会使收敛变慢
2)送入激活函数为负数时,输出为0,反向传播得到的梯度是零,导致参数无法更新,造成神经元死亡。可以通过改进随机初始化,避免负数送入神经元/通过设置更小的学习率,减小学习参数的巨大变化避免训练中产生过多负数特征。

Leaky Relu


为了解决负区间梯度为0引起神经元死亡问题而设计的。
通过引入一个固定的斜率a使得leaky relu负区间不再恒等于0

总结


北大TF教程

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/1009755.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号