-
在基于tensorflow和keras框架的网络建模中,通过编译工具的Debug功能我们会发现网络中数据流的shape为(None, d1, d2, d3, ...),即shape的第一个位置为None,它代表网络可以一次接收batch_size个数据,便于数据流动和网络计算;
-
但是,对张量使用keras.backend.mean()方法求均值(如计算两个张量的MSE过程中)后,计算结果的shape变成了(),而不是(None, 1);
""" input_ : 编码前的输入张量, 假设其Debug中的shape为(None, 120, 10) output_ : 解码后的输出张量, 假设其Debug中的shape为(None, 120, 10) """ # 计算二者的MSE损失值 from keras import backend as K # step1 : 计算绝对差值的平方 a = K.square(input_ - output_) # a的KerasTensor shape:(None, 120, 10) # step2 : 求均值 b = K.mean(a) # b的KerasTensor shape:()
- 这可能会导致:当输入数据的个数一定时,网络输出数据的个数会随着参数batch_size大小的改变而发生变化:
假设搭建了一个基于重构方法的模型,输入20个数据,我希望网络能够输出20个重构loss值(MSE)。但是,当batch_size=2时,网络输出10个loss值;当batch_size=4时,网络输出5个loss值。
原因分析:
当张量KerasTensor数据的shape为()时,表明该数据是一个标量,正是因为它的shape不对,导致无论batch_size大小被设为多少,该轮batch都只会产生一个结果。
解决方案:
解决思路很简单,就是将shape由()改成(None, 1)
操作方式:
# 计算二者的MSE损失值 import tensorflow as tf from keras import backend as K # step1 : 对张量进行reshape input_ = tf.reshape(input_, [-1, 120 * 10]) output_ = tf.reshape(output_, [-1, 120 * 10]) # step2 : 计算绝对差值的平方 a = K.square(input_ - output_) # a的KerasTensor shape:(None, 120, 10) # step3 : 求均值 b = K.mean(a, axis=-1, keepdims=True) # b的KerasTensor shape:(None, 1)



