精細(xì)到發(fā)絲級別的摳圖算法,工程師的浪漫YYDS!
你以為這些人像發(fā)絲的勾勒是PS做的嗎?

不!這是AI算法的效果!

這是什么AI技術(shù)能把發(fā)絲精細(xì)的識別,甚至還能有透明度漸變?!經(jīng)過小編的一番調(diào)研,這項技術(shù)叫做Matting,是指通過計算前景的顏色和透明度,將前景從影像中擷取出來,并生成一張Alpha圖的技術(shù)。

該數(shù)據(jù)引用公開數(shù)據(jù)集[1]
近期PaddleSeg團(tuán)隊復(fù)現(xiàn)了經(jīng)典Matting算法MODNet,并進(jìn)行了一定改進(jìn),提供了更豐富的backbone模型選擇,適用邊緣端、服務(wù)端等多種任務(wù)場景。

在這里小編趕緊給大家貼上項目鏈接地址。歡迎小伙伴們star收藏:
https://github.com/PaddlePaddle/PaddleSeg/tree/release/2.3/contrib/Matting
同時PaddleSeg團(tuán)隊提供了可部署在手機(jī)端的APP應(yīng)用,歡迎大家收藏鏈接體驗Matting的人像摳圖效果。
APP下載鏈接:
https://paddleseg.bj.bcebos.com/matting/models/deploy/app-debug.apk
Matting精細(xì)化摳圖被廣泛應(yīng)用在多種行業(yè),如視頻剪輯,視頻合成等領(lǐng)域。

看到這么好的技術(shù),有的小伙伴們會比較關(guān)注技術(shù)上是怎么實現(xiàn)的,那么我們就一起來看看Matting的技術(shù)演化過程。
Matting算法基本結(jié)構(gòu)
基于深度學(xué)習(xí)的Matting分為兩大類:
一種是基于輔助信息輸入。即除了原圖和標(biāo)注圖像外,還需要輸入其他的信息輔助預(yù)測。最常見的輔助信息是Trimap,即將圖片劃分為前景,背景及過度區(qū)域三部分。另外也有以背景或交互點作為輔助信息。
一種是不依賴任何輔助信息,直接實現(xiàn)Alpha預(yù)測。
本文將分別對兩類Matting算法展開介紹,和小伙伴們一起梳理Matting的發(fā)展歷程。

DIM -Matting
DIM(Deep Image Matting)第一次闡述了在給定圖像和輔助信息Trimap的情況下,可以通過端到端的方式學(xué)習(xí)到Alpha。其網(wǎng)絡(luò)分為兩個階段,第一階段是深度卷積編碼-解碼網(wǎng)絡(luò), 第二階段是一個小型卷積神經(jīng)網(wǎng)絡(luò),用來減少編碼-解碼網(wǎng)絡(luò)引起的細(xì)節(jié)損失,提升Alpha預(yù)測的準(zhǔn)確性和邊緣效果。在DIM之后誕生了大量的基于Trimap的Matting網(wǎng)絡(luò)。

圖片來源:Xu, Ning, et al. "Deep image matting."?Proceedings of the IEEE conference on computer vision and pattern recognition. 2017.
BGMV2-以背景作為輔助信息
BGMv2(Background Matting v2)?改變思路,利用背景圖像取代Trimap來輔助網(wǎng)絡(luò)進(jìn)行預(yù)測,有效避免了Trimap獲取費(fèi)時費(fèi)力的問題,并將網(wǎng)絡(luò)分為Base網(wǎng)絡(luò)和Refiner兩部分。在計算量大的Base網(wǎng)絡(luò)階段對低分辨率進(jìn)行初步預(yù)測,在Refiner階段利用Error Map對高分辨率圖像相應(yīng)的切片進(jìn)行Refine。通過此實現(xiàn)了高分辨率圖像的實時預(yù)測。

圖片來源:Lin, Shanchuan, et al. "Real-time high-resolution background matting."?Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021.
MODNet
輔助信息的獲取極大限制了Matting的應(yīng)用,為了提升Matting的應(yīng)用性,針對Portrait Matting領(lǐng)域MODNet摒棄了輔助信息,直接實現(xiàn)Alpha預(yù)測,實現(xiàn)了實時Matting,極大提升了基于深度學(xué)習(xí)Matting的應(yīng)用價值。MODNet將Matting分解成三個子目標(biāo)進(jìn)行優(yōu)化,通過任務(wù)分解提升Alpha預(yù)測的準(zhǔn)確率。

圖片來源:Ke Z, Li K, Zhou Y, et al. Is a Green Screen Really Necessary for Real-Time Portrait Matting?[J]. arXiv preprint arXiv:2011.11961, 2020.
當(dāng)前PaddleSeg提供的Matting算法便是對MODNet算法的復(fù)現(xiàn),并在原著基礎(chǔ)上提供了多個不同主干網(wǎng)絡(luò)的預(yù)訓(xùn)練模型如RestNet50_vd、HRNet_w18。來滿足用戶在邊緣端、服務(wù)端等不同場景部署的需求。
直播預(yù)告
為了讓開發(fā)者們更深入的了解Matting的原理,飛槳團(tuán)隊精細(xì)準(zhǔn)備了兩日課。
11月17日~18日19:00~20:00百度資深高工將為我們從原理到實戰(zhàn),全方位的解析Matting算法的前世今生,還在等什么!抓緊掃碼上車吧!
掃碼報名直播課,加入技術(shù)交流群
精彩內(nèi)容搶先看
圖片數(shù)據(jù)引用說明
[1]?Christoph Rhemann, Carsten Rother, Jue Wang, Margrit Gelautz, Pushmeet Kohli, Pamela Rott. A Perceptually Motivated Online Benchmark for Image Matting.
