目前,与文件中所述相反的是,
密集'
层[应用在输入张量的最后一个轴上](网址:keras.com/https://github-
团队/KERA/问题/10736#问题建议-406589140):
与文档相反,我们实际上并没有将其展平。它适用于
最后一个独立轴。
换言之,如果对输入应用一个单位为“m”的“密集”层
形状(nu dim1,nu dim2,…,nu dimk)的张量将有一个输出形状
在(nu dim1,nu dim2,…,m)。
作为旁注:这使得“TimeDistributed(densed(…)”和“densed(…)`
彼此相等。
另一个旁注:请注意,这具有共享权重的效果。
例如,考虑这个玩具网络:
model = Sequential()model.add(Dense(10, input_shape=(20, 5)))model.summary()
The model summary:
_________________________________________________________________Layer (type) Output Shape Param # =================================================================dense_1 (Dense) (None, 20, 10) 60 =================================================================Total params: 60Trainable params: 60Non-trainable params: 0_________________________________________________________________
如您所见,“稠密”层只有60个参数。怎样?每个单元`稠密层用相同的权重,因此“10*5+10(单位偏差参数)=60”。
更新。以下是上述示例的直观说明:
[![对具有两个或多个输入的输入应用密集层的直观说明]
尺寸单位



