YOLO-v4目標(biāo)檢測(cè)、換臉、視頻上色全部實(shí)時(shí)手機(jī)端實(shí)現(xiàn),美國(guó)東北大學(xué)等提出全自動(dòng)實(shí)時(shí)移動(dòng)端AI框架

極市導(dǎo)讀
?來自美國(guó)東北大學(xué)等機(jī)構(gòu)的研究者提出了一種全自動(dòng)模式化稀疏度感知訓(xùn)練框架,助力深度神經(jīng)網(wǎng)絡(luò)在移動(dòng)端“看得更清,跑得更快”。>>>極市七夕粉絲福利活動(dòng):煉丹師們,七夕這道算法題,你會(huì)解嗎?
基于模式化稀疏度的剪枝方法能夠使深度神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別任務(wù)中「看得」更清楚,同時(shí)減小了模型尺寸,使模型在移動(dòng)端「跑得」更快,實(shí)現(xiàn)實(shí)時(shí)推理。
由美國(guó)東北大學(xué)王言治教授研究團(tuán)隊(duì)與美國(guó)威廉瑪麗學(xué)院任彬教授研究團(tuán)隊(duì)共同提出,IBM、清華等共同研究的模式化稀疏度感知訓(xùn)練框架,不僅能夠同時(shí)實(shí)現(xiàn)卷積核稀疏模式的全自動(dòng)提取、模式化稀疏度的自動(dòng)選擇與模型訓(xùn)練,還證明了所提取的模式化稀疏度與理論最佳模式化稀疏度相匹配,并進(jìn)一步設(shè)計(jì)了能夠利用模型特點(diǎn)實(shí)現(xiàn)編譯器優(yōu)化的移動(dòng)端推理框架,實(shí)現(xiàn)了大規(guī)模深度神經(jīng)網(wǎng)絡(luò)在手機(jī)移動(dòng)端上的實(shí)時(shí)推理。目前,這篇文章已被 ECCV 2020 會(huì)議收錄,該文章同時(shí)入選 ECCV 2020 demonstration track。
目前,這項(xiàng)技術(shù)已經(jīng)廣泛應(yīng)用在多種類型的人工智能(AI)任務(wù)中,包括但不限于:Yolo-v4 目標(biāo)檢測(cè)、實(shí)時(shí)相機(jī)風(fēng)格遷移、AI 實(shí)時(shí)換臉、相機(jī)超分辨率拍攝、視頻實(shí)時(shí)上色等,并且成功落地。以上任務(wù)全部在手機(jī)端上實(shí)現(xiàn)。


官方網(wǎng)站:https://www.cocopie.ai/
B 站:https://space.bilibili.com/573588276



理論層面


算法實(shí)現(xiàn)層面
移動(dòng)端硬件與編譯器優(yōu)化層面

實(shí)驗(yàn)結(jié)果







推薦閱讀

