2021年度  第4期


标题:视觉低级任务中的CNN压缩研究
作者:龚壮展 赵鑫海
作者单位:广东工业大学,广东 广州 510006
关键字:卷积神经网络(CNN);Tucker(塔克)分解;模型参数;浮点运算次数;CNN压缩
摘要: 卷积神经网络的发展给计算机视觉任务提供了多种解决方法。网络深度的增加,使得模型参数和所需内存也随之增加,这给模型应用到算力和内存等资源有限的设备上带来了困难。卷积神经网络的压缩是一个重要的研究方向,提出利用Tucker分解对视觉低级任务(computer vision low-level tasks)中的卷积神经网络进行压缩。实验证实了Tucker分解对压缩该任务模型的有效性,在去噪神经网络DnCNN中,模型参数量减少了85%~88%,浮点运算次数FLOPs(FLoating point of OPerations)减少了85%~88%。在超分辨率神经网络VDSR中,模型的参数量减少了85%,浮点运算次数FLOPs减少了85%。