栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

如何为GradientDescentOptimizer设置自适应学习率?

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

如何为GradientDescentOptimizer设置自适应学习率?

首先,

tf.train.GradientDescentOptimizer
旨在对所有步骤中的所有变量使用恒定的学习率。TensorFlow还提供了开箱即用的自适应优化器,包括
tf.train.AdagradOptimizer
tf.train.AdamOptimizer
,这些可以用作即插即用的替代品。

但是,如果您希望通过原始的梯度下降来控制学习速率,则可以利用以下事实:构造函数的

learning_rate
参数可以是一个对象。这使您可以在每个步骤中为学习率计算一个不同的值,例如:
tf.train.GradientDescentOptimizer
Tensor

learning_rate = tf.placeholder(tf.float32, shape=[])# ...train_step = tf.train.GradientDescentOptimizer(    learning_rate=learning_rate).minimize(mse)sess = tf.Session()# Feed different values for learning rate to each training step.sess.run(train_step, feed_dict={learning_rate: 0.1})sess.run(train_step, feed_dict={learning_rate: 0.1})sess.run(train_step, feed_dict={learning_rate: 0.01})sess.run(train_step, feed_dict={learning_rate: 0.01})

或者,您可以创建一个

tf.Variable
保存学习率的标量,并在每次要更改学习率时分配它。



转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/410674.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号