1.区别2. 计算方式4.相关链接
1.区别FLOPS 的全称是floating point of per second,它的意思是指每秒浮点运算次数。用来衡量硬件的性能。
FLOPs 的全称是floating point of operations,它的意思是指浮点运算次数,可以用来衡量算法/模型复杂度。
2. 计算方式CUDA 中FLOPS的计算方法如下:
(1)统计您每个线程的计算次数
(2)将此值乘以您的线程总数
(3)统计出总时间(利用profiler或者自己计时),将2中的值(所有线程的计算次数)除以计算时间,您将得到每秒的计算次数。
(4)因为3中的值往往较大,所以大家一般用GFlops来衡量(Giga float operations per second), 1G次运算 = 10 ^ 9次方次运算。
相关链接:
(110条消息) pytorch计算模型算力与参数大小_西瓜撞树上了的博客-CSDN博客_pytorch 模型大小
分享一个FLOPs计算神器 - 简书 (jianshu.com)
这个是我真实使用过的,只需要安装一个包,添加一行代码
from torchstat import stat import torchvision.models as models model = model.alexnet() stat(model, (3, 224, 224))
- 深度学习中的FLOPs是什么?如何计算的?
https://cloud.tencent.com/developer/article/1747991



