栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

Tensorflow:使用Adam优化器

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Tensorflow:使用Adam优化器

AdamOptimizer类创建其他变量,称为“插槽”,以保存“ m”和“ v”累加器的值。

如果您对此感到好奇,请参阅此处的源代码,它实际上很容易阅读:https
:
//github.com/tensorflow/tensorflow/blob/master/tensorflow/python/training/adam.py#L39。其他优化器,例如Momentum和Adagrad也使用插槽。

必须先初始化这些变量,然后才能训练模型。

初始化变量正常的方法是调用

tf.initialize_all_variables()
它增加了OPS初始化变量出现在图表 当它被称为

(除了:顾名思义,initialize_all_variables()不会初始化任何内容,它仅添加将在运行时初始化变量的操作。)

您必须做的是 添加优化器 之后 调用initialize_all_variables():

...build your model...# Add the optimizertrain_op = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)# Add the ops to initialize variables.  These will include # the optimizer slots added by AdamOptimizer().init_op = tf.initialize_all_variables()# launch the graph in a sessionsess = tf.Session()# Actually intialize the variablessess.run(init_op)# now train your modelfor ...:  sess.run(train_op)


转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/610587.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号