FLOPs如何计算

参考:

1.FLOPs的定义

    要注意区分FLOPs和FLOPS
  • FLOPs:s小写,是floating point operations的缩写(s表复数),指浮点运算数,即计算量,可用来衡量模型复杂度。
  • FLOPS:全大写,是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度,用来衡量硬件性能。

2.简单的计算方式

以下均不考虑activation function。

2.1.卷积层

(2\times C_{i}\times k^{2}-1)\times H \times W \times C_{o}
Ci=input channel, k=kernel size, HW=output feature map size, Co=output channel.
2是因为一个MAC算2个operations。不考虑bias时有-1,有bias时没有-1。
上面针对一个input feature map,没考虑batch size。

2.2.全联接层

(2\times I -1)\times O
I=input neuron numbers, O=output neuron numbers,2是因为一个MAC算2个operations。不考虑bias时有-1,有bias时没有-1。

2.3.反卷积
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容