源文https://arxiv.org/pdf/1807.06514.pdf源代码https://github.com/shanglianlm0525/CvPytorch源代码https://github.com/shanglianlm0525/PyTorch-Networks
Introduction我们提出了一个简单的有效注意模块,名为 Bottleneck Attention Module 注意模块(BAM),可以与任何前馈卷积神经网络集成。我们的模块沿着两个独立的路径,即通道和空间推荐注意力图。我们将模块置于模型的每个Bottleneck中,其中发生特征映射的下采样。我们的模块通过多个参数在Bottleneck瓶颈上构建层次关注,并且可以与前馈模型一起以端到端的方式进行训练。我们通过对CIFAR-100,ImageNet-1K,VOC 2007和MS COCO基准的广泛实验来验证我们的BAM。我们的实验表明,各种模型在分类和检测性能方面均得到了一致的改进,证明了BAM的广泛适用性。
Model Experiment
参考原文链接:https://blog.csdn.net/abc13526222160/article/details/103827418



