用于生成数据的方式是在CPU上执行的(
random.random()是常规的python函数,而不是TF-
one)。而且,执行
10^6一次时间比
10^6一次运行中请求随机数要慢。将代码更改为:
a = tf.random_uniform([1000, 1000], name='a')b = tf.random_uniform([1000, 1000], name='b')
因此,数据将在GPU上并行生成,而不会浪费时间将其从RAM传输到GPU。

用于生成数据的方式是在CPU上执行的(
random.random()是常规的python函数,而不是TF-
10^6一次时间比
10^6一次运行中请求随机数要慢。将代码更改为:
a = tf.random_uniform([1000, 1000], name='a')b = tf.random_uniform([1000, 1000], name='b')
因此,数据将在GPU上并行生成,而不会浪费时间将其从RAM传输到GPU。