3毫秒極速識別,一個4.1k Satr的開源項目
不點藍字關注,我們哪來故事?
人臉、車輛、人體屬性、卡證、交通標識等經(jīng)典圖像識別能力,在我們當前數(shù)字化工作及生活中發(fā)揮著極其重要的作用。業(yè)內(nèi)也不乏頂尖公司提供的可直接調(diào)用的API、SDK,但這些往往面臨著定制化場景泛化效果不好、價格昂貴、黑盒可控性低、技術壁壘難以形成多諸多痛點。

話不多說,趕緊送上傳送門,識貨的小伙伴趕緊嘗試一下吧!


圖2 9大場景模型效果示意圖
1
亮點一
完美平衡精度與速度
從大名鼎鼎的Resnet50到如今火熱的Swin-Transformer,模型精度不斷被刷新,但是預測效率并不高。即使是Swin-Transformer最小的模型,在CPU上的預測速度也超過100ms,遠遠無法滿足產(chǎn)業(yè)實時預測的需求。
而使用MobileNet系列等輕量化模型可以保證較高的預測效率,在CPU上預測一張圖像大約3ms,但是模型精度往往和大模型有很大差距。
PaddleClas推出的超輕量圖像分類方案(Practical Ultra Light Classification,簡稱PULC),就完美解決上述產(chǎn)業(yè)落地中算法精度和速度難以平衡的痛點。

表1 不同模型精度速度結果對比
如圖所示,它的精度與Swin-Transformer等大模型比肩,預測速度卻可以快30倍以上,在CPU上的推理時長僅需2ms!
2
亮點二
易用性極強
PULC方案不僅完美地平衡了精度與速度,還充分考慮了產(chǎn)業(yè)實踐過程中需要定制化的對算法快速迭代的需求,只需一行命令,就可完成模型訓練。
與此同時,PaddleClas 團隊還發(fā)布了包括人、車、OCR在內(nèi)的9大場景模型,僅需2步就能實現(xiàn)業(yè)務 POC 效果驗證,訓練、推理、部署一條龍,真正實現(xiàn)“開箱即用”。

不僅如此,項目還匹配了詳細的中文使用文檔及產(chǎn)業(yè)實踐范例教程。

圖3 使用文檔及范例示意圖
3
亮點三
集成超多硬核技術

圖4 超輕量圖像分類方案(PULC)示意圖
PP-LCNet輕量級骨干網(wǎng)絡
PP-LCNet作為針對CPU量身打造的骨干網(wǎng)絡模型,在速度、精度方面均遠超如MobileNetV3等同體量算法,多個場景模型優(yōu)化后,速度較SwinTransformer的模型快30倍以上,精度較MobileNetV3_small_0.35x高18個點。
SSLD預訓練權重
SSLD半監(jiān)督蒸餾算法可以使小模型學習到大模型的特征和ImageNet22k無標簽大規(guī)模數(shù)據(jù)的知識。在訓練小模型時,使用SSLD預訓練權重作為模型的初始化參數(shù),可以使不同場景的應用分類模型獲得1-2.5個點的精度提升。
數(shù)據(jù)增強策略集成
該方案融合了圖像變換、圖像裁剪和圖像混疊3種數(shù)據(jù)增強方法,并支持自定義調(diào)整觸發(fā)概率,能使模型的泛化能力大大增強,提升模型在實際場景中的性能。模型可以在上一步的基礎上,精度再提升1個點左右。
SKL-UGI知識蒸餾算法
4
服務真實場景需求
20種產(chǎn)業(yè)算法落地方案
不僅如此,PaddleClas團隊考慮到真實產(chǎn)業(yè)應用面對的各種軟硬件環(huán)境和不同的場景需求,在提供PULC方案的同時,還提供了包括3種訓練方式、5種訓練環(huán)境、3種模型壓縮策略和9種推理部署方式在內(nèi)的20種產(chǎn)業(yè)算法落地方案:

表2 PaddleClas訓練推理部署功能支持列表
其中值得高度關注的有:
01 分布式訓練
飛槳分布式訓練架構具備4D混合并行、端到端自適應分布式訓練等多項特色技術。在PP-LCNet訓練中,4機8卡相較于單機8卡加速比達到3.48倍,加速效率87%,精度無損。
02 模型壓縮
飛槳模型壓縮工具PaddleSlim功能完備,覆蓋模型裁剪、量化、蒸餾和NAS。圖像分類模型經(jīng)過量化裁剪后,移動端平均預測耗時減少24%。
03 移動端/邊緣端部署
飛槳輕量化推理引擎Paddle Lite適配了20+ AI 加速芯片,可以快速實現(xiàn)圖像分類模型在移動設備、嵌入式設備和IOT設備等高效設備的部署。
END
若覺得文章對你有幫助,隨手轉發(fā)分享,也是我們繼續(xù)更新的動力。
長按二維碼,掃掃關注哦
?「C語言中文網(wǎng)」官方公眾號,關注手機閱讀教程 ?
