CVPR 2020: 8比特數(shù)值也能訓練模型?商湯提出訓練加速新算法
實驗結(jié)果
圖像分類任務(wù):
本文在CIFAR10和ImageNet等圖像分類數(shù)據(jù)集進行INT8訓練實驗。從下表結(jié)果中可以看出,在大多數(shù)網(wǎng)絡(luò)結(jié)構(gòu)中均取得了比現(xiàn)有最好方法更優(yōu)的精度,并且首次在MobileNet、Inception等網(wǎng)絡(luò)上進行量化訓練實驗,精度損失也在1.5%以內(nèi)。
目標檢測任務(wù):
同時,本文也首次嘗試在PASCAL和COCO等目標檢測數(shù)據(jù)集上進行INT8訓練實驗,精度損失也在2%以內(nèi)。
已有的少量探究梯度量化的論文[4]均未報告算法在實際訓練任務(wù)中的真實加速性能,為了最大限度將方法實用化,本文在GeForce GTX1080TI顯卡上編寫并優(yōu)化了用于支持INT8訓練的卷積前向和后向計算核心。實測結(jié)果表明,使用INT8卷積計算的前向和后向過程相比于浮點計算有明顯的加速,其中前向過程平均加速1.63倍,后向過程平均加速1.94倍。如下圖所示:
同時,本文在實際訓練過程中進行了完整的端到端測試,可以看到,INT8訓練可以將ResNet50的一輪訓練過程從0.360秒降低到0.293秒,整體訓練過程提速了22%。
References
[1] Ruihao Gong, Xianglong Liu, Shenghu Jiang, TianxiangLi,Peng Hu, Jiazhen Lin, Fengwei Yu, and Junjie Yan. Differen-tiable softquantization: Bridging full-precisionand low-bitneural networks. In ICCV, October 2019.
[2] RundongLi, Yan Wang, Feng Liang, Hongwei Qin, Junjie Yan, and Rui Fan. Fully quantizednetwork for object detection. In The IEEE Conference on Computer Vision andPattern Recognition (CVPR), June 2019.
[3] Benoit Jacob,Skirmantas Kligys, Bo Chen, Menglong Zhu, Matthew Tang, Andrew Howard, HartwigAdam, and Dmitry Kalenichenko. Quantization and training of neural networks forefficient integer-arithmetic-only inference. 2018 IEEE Conference on ComputerVision and Pattern Recognition(CVPR), June 2018.
[4] Yukuan Yang, Shuang Wu, LeiDeng, Tianyi Yan, Yuan Xie, and Guoqi Li. Training high-performance andlarge-scale deep neural networks with full 8-bit integers, 2019.

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
7月31日免費預(yù)約>> OFweek 2025具身智能機器人產(chǎn)業(yè)技術(shù)創(chuàng)新應(yīng)用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題