栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

简述神经网络的发展史?

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

简述神经网络的发展史?

答:sigmoid会饱和,造成梯度消失,于是有了ReLU

ReLU负半轴是死区,会造成梯度变为0,于是有了LeakyReLU、PReLU

强调梯度和权值分布的稳定性,由此有了ELU,以及较新的SELU

太深了,梯度传递不下去,于是有了highway

干脆连highway的参数都不要,直接变残差,于是有了ResNet

强行稳定参数的均值和方差,于是有了BatchNorm

在梯度流中增加噪声,于是有了Dropout

RNN梯度不稳定,于是加几个通路和门控,于是有了LSTM

LSTM简化一下,有了GRU

GAN的JS散度有问题,会导致梯度消失或者无效,于是有了WGAN

WGAN对梯度的clip有问题,于是有了WGAN-GP

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/364617.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号