栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

20211001:Trick篇-MixConv

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

20211001:Trick篇-MixConv

论文:MixConv: Mixed Depthwise Convolutional Kernels

论文: https://arxiv.org/abs/1907.09595

代码:https://github.com/linksense/MixNet-PyTorch[非官方]

 代码:https://github.com/leaderj1001/Mixed-Depthwise-Convolutional-Kernels [非官方]

Trick:
谷歌出品,轻量化网络,值得学习借鉴

要点记录: 

1:开门见山:平常只关注depth-wise有效,却忽略了depth-wise的kernel size问题

-----------------------------------------------------------------------------------------------------------------

 要点记录: 

1:很显然,一定程度上,增加kernel size是可以提升acc的,但flops也随之增加。继续增大,精度反而下降。

-----------------------------------------------------------------------------------------------------------------

要点记录: 

1:large kernel size具有更多参数,会显著增加模型size。

2:极端情况下,kernel size = input resolution时,ConvNet就变成了一个fully-connected network.

3:即需要large kernel size 来捕获高分辨率patterns,也需要small kernel size来捕获第分辨率patterns。这样的可以均衡精度和效率。

----------------------------------------------------------------------------------------------------------------- 

要点记录: 

1:上图就是作者提出的MixConv,和Inception的思想很像。对channel分组,分别使用不同大小的卷积核,使得在同一层捕获不同分辨率的patterns.

-----------------------------------------------------------------------------------------------------------------  

要点记录: 

1:Group Size:通过实验发现g=4就很好了。通过NAS发现1-5的变化组合效果更好

 -----------------------------------------------------------------------------------------------------------------  

要点记录: 

1:Kernel Size per Group:从3x3开始,逐步加2。即3x3, 5x5, 7x7...

 -----------------------------------------------------------------------------------------------------------------  

要点记录: 

1:Channel Size Per Group:均分就ok。指数划分,造成large kernel size的数目偏少,学习能力下降。

 -----------------------------------------------------------------------------------------------------------------  

 要点记录: 

1:Dilated Convolution:大卷积核使用孔洞卷积,容易丢失局部细节,造成精度下降

 -----------------------------------------------------------------------------------------------------------------   

要点记录: 

1:从图表上看,效果确实不错,后面在活体任务上验证一下效果

 -----------------------------------------------------------------------------------------------------------------    

 

要点记录: 

1:网络浅层使用小卷积核来节省计算量;网络深层使用大卷积核来提升精度

 -----------------------------------------------------------------------------------------------------------------    

 要点记录: 

1:从这个图上看,确实值的一试。等我验证了,回来补坑。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/283782.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号