最近学习tensorflow,对于这个函数tf.data.Dataset.interleave()始终有点晕乎,即使搞明白了,用不了多久又忘了,在网上查了查,发现很少有人能把这个函数讲清楚。趁着现在还明白,记录下来——备忘+助友。interleave()是Dataset的类方法,所以interleave是作用在一个Dataset上的。
语法:
interleave(
map_func,
cycle_length=AUTOTUNE,
block_length=1,
num_parallel_calls=None
)
解释:
- 假定我们现在有一个Dataset——A
- 从该A中取出cycle_length个element,然后对这些element apply map_func,得到cycle_length个新的Dataset对象。
- 然后从这些新生成的Dataset对象中取数据,取数逻辑为轮流从每个对象(注意,这里不是先取完一个对象再取另一个)里面取数据,每次取block_length个数据
- 当这些新生成的某个Dataset的对象取尽时,从原Dataset中再取cycle_length个element,然后apply map_func,以此类推。
举例:
a = tf.data.Dataset.range(1, 6) # ==> [ 1, 2, 3, 4, 5 ]
# NOTE: New lines indicate "block" boundaries.
b=a.interleave(lambda x: tf.data.Dataset.from_tensors(x).repeat(6),
cycle_length=2, block_length=4)
for item in b:
print(item.numpy(),end=', ')
输出结果:
1, 1, 1, 1, 2, 2, 2, 2, 1, 1, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 3, 3, 4, 4, 5, 5, 5, 5, 5, 5,
上面程序的图示,看示意图可能更清晰:
其中map_func在这里是重复6次-repeat(6)。
常见case:
dataset里面存储文件名, 将所有文件读取出来,产生一个大数据集。
以上内容参考自「倚剑天客」的原创文章,做了一些改动。版权声明:本文为CSDN博主「倚剑天客」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/menghuanshen/article/details/104240189
2. 性能提升 该方法有时会比较占用资源,为了提升性能,可能需要另外两个参数的参与
num_parallel_calls只会影响同时处理的线程数量并不会影响最终结果,但要求要小于等于cycle_length。
例程:
import tensorflow as tf
dataset = tf.data.Dataset.range(1, 6) # ==> [ 1, 2, 3, 4, 5 ]
# NOTE: New lines indicate "block" boundaries.
dataset = dataset.interleave(
lambda x: tf.data.Dataset.from_tensors(x).repeat(6),
cycle_length=4, block_length=4, num_parallel_calls = 2, deterministic = False)
print(list(dataset.as_numpy_iterator()))
打印:
num_parallel_calls不论设置为1、2、3、4,输出都是下面结果
[1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 1, 1, 2, 2, 3, 3, 4, 4, 5, 5, 5, 5, 5, 5]
原理:
- 假设num_parallel_calls = 2,此时先从dataset(即[ 1, 2, 3, 4, 5 ])中取cycle_length=4个元素,即为[1, 2, 3, 4]
- 然后因为num_parallel_calls = 2,所以先对[1, 2]应用 lambda x: tf.data.Dataset.from_tensors(x).repeat(6)(也就是重复6次),得到
[1, 1, 1, 1 2, 2, 2, 2]
- 然后再对[3, 4]进行同样的处理得到
[3, 3, 3, 3 4, 4, 4, 4]
- 之后将
[1, 1, 1, 1 2, 2, 2, 2 3, 3, 3, 3 4, 4, 4, 4]
- 再轮流取 block_length=4个数据,重复基础运行流程中的循环
可以看到,上述num_parallel_calls只是对并行处理量进行了拆分,对运行结果并没有造成影响.
deterministic参数会对结果造成影响,他影响数据处理时候的顺序(自己总结,不一定对)。即若deterministic=False,在并行处理时可能并不一定是按照[1、2、3、4]的顺序,有可能是[2、3、4、1]之类的。
例程:
import tensorflow as tf
dataset = tf.data.Dataset.range(1, 6) # ==> [ 1, 2, 3, 4, 5 ]
# NOTE: New lines indicate "block" boundaries.
dataset = dataset.interleave(
lambda x: tf.data.Dataset.from_tensors(x).repeat(6),
cycle_length=4, block_length=4, num_parallel_calls = 2, deterministic = False)
print(list(dataset.as_numpy_iterator()))
打印:
[1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 1, 1, 2, 2, 3, 3, 4, 4, 5, 5, 5, 5, 5, 5]
或
[2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 1, 1, 1, 1, 2, 2, 3, 3, 4, 4, 1, 1, 5, 5, 5, 5, 5, 5]
更详细内容可以参考官方文档



