發(fā)際線有救了!這款app可一鍵AI生發(fā),拯救你的自拍焦慮數(shù)據(jù)派THU關(guān)注共 3533字,需瀏覽 8分鐘 ·2021-09-17 14:03 來源:AI科技評論本文約2900字,建議閱讀6分鐘 本文教你如何快速變美。比起卡粉,悶痘,油光,手殘,新一代年輕人的美麗可以來得更容易,快速變美只需要兩步,打開美圖,擺好pose——詮釋那句話,“為了美麗,我堅(jiān)持開美顏”。今年來,容貌焦慮和發(fā)際線危機(jī)已經(jīng)不止一次搬上話事桌,甚至讓大眾誤以為這并非為資本或是人的思維創(chuàng)造物。實(shí)際上,這是一個由意識形態(tài)到符號結(jié)構(gòu)再到技術(shù)決定的邏輯蛻變過程,美圖公司在后排默默觀察。1、美圖秀秀推出“生發(fā)”功能去年9月,美圖秀秀推出增發(fā)功能,可填充發(fā)際線、增加劉海 。今年2月,美圖秀秀發(fā)布《00后圖片社交報(bào)告》,報(bào)告顯示,當(dāng)00后被問及“最在意的修圖部位”,出乎意料的是00后用戶不僅關(guān)注腹肌、鎖骨和黑眼圈這些細(xì)節(jié),也關(guān)注發(fā)際線的完美程度。其背后的美圖影像實(shí)驗(yàn)室(MT Lab),目前已經(jīng)落地了多個頭發(fā)生成項(xiàng)目,在美圖旗下核心產(chǎn)品美圖秀秀及海外產(chǎn)品AirBrush上線劉海生成、發(fā)際線調(diào)整與稀疏區(qū)域補(bǔ)發(fā)等功能。其中,劉海生成功能可以基于自定義的生成區(qū)域,生成不同樣式的劉海;發(fā)際線調(diào)整功能在保持原有發(fā)際線樣式的情況下,可以對發(fā)際線的不同高度進(jìn)行調(diào)整;稀疏區(qū)域補(bǔ)發(fā)則可以在指定區(qū)域或者智能檢測區(qū)域中,自定義調(diào)整稀疏區(qū)域的頭發(fā)濃密程度。成立于2010年的MT Lab是致力于計(jì)算機(jī)視覺、機(jī)器學(xué)習(xí)、增強(qiáng)現(xiàn)實(shí)、云計(jì)算等人工智能相關(guān)領(lǐng)域的研發(fā)團(tuán)隊(duì),深耕人臉、美顏、美妝、人體、圖像分割、圖像生成等多個技術(shù)研發(fā)領(lǐng)域,目前已廣泛應(yīng)用于美圖旗下產(chǎn)品。美圖秀秀的人像美容欄中的外貌修飾功能如今,美圖秀秀不僅在人臉上做“減法’,還做起了“加法”,推出面部豐盈、整牙以及發(fā)際線調(diào)整、稀疏區(qū)域補(bǔ)發(fā)的新功能。美圖秀秀的整牙和面部填充對比圖2、"做加法",難在沒東西可加但怎么解決當(dāng)下大家最關(guān)注的頭發(fā)生成問題,在落地過程中仍面臨幾個亟待突破的關(guān)鍵技術(shù)瓶頸:數(shù)據(jù)缺少、發(fā)絲細(xì)節(jié)不足和清晰度低。稍有不慎,頭發(fā)就容易糊成一片。當(dāng)年Angel大寶貝在電視劇中的摳圖效果可太假了首先是生成數(shù)據(jù)的獲取問題以劉海生成任務(wù)為例,在生成出特定款式的劉海時,需要大量劉海數(shù)據(jù),但是通過搜集真實(shí)數(shù)據(jù)的形式做數(shù)據(jù)喂養(yǎng),其實(shí)就是個“體力活”:有劉海、無劉海的真實(shí)數(shù)據(jù)難獲?。恍眲⒑?、直劉海、八字劉海等特定款式的劉海數(shù)據(jù)耗費(fèi)高成本。這兩種方式基本都不具備可操作性。多款劉海生成效果圖其次是高清圖像細(xì)節(jié)的生成問題要么頭發(fā)太假,要么像是用座機(jī)拍出來的糊圖。由于頭發(fā)部位擁有復(fù)雜的紋理細(xì)節(jié),通過CNN難以生成真實(shí)且達(dá)到理想狀態(tài)的發(fā)絲。其中,在有配對數(shù)據(jù)的情況下,雖然可以通過設(shè)計(jì)類似Pixel2PixelHD、U2-Net等網(wǎng)絡(luò)進(jìn)行監(jiān)督學(xué)習(xí),但目前通過該方式生成的圖像清晰度仍然非常有限。而在非配對數(shù)據(jù)情況下,一般通過類似HiSD、StarGAN、CycleGAN的方式進(jìn)行屬性轉(zhuǎn)換生成,利用該方式生成的圖片不僅清晰度不佳,還存在目標(biāo)效果生成不穩(wěn)定、生成效果不真實(shí)等問題。真實(shí)的頭發(fā)數(shù)據(jù)沒有,自己造“假”又太假,針對上述情況, MT Lab基于龐大的數(shù)據(jù)資源與突出的模型設(shè)計(jì)能力,借助StyleGAN解決了頭發(fā)生成任務(wù)所面臨的配對數(shù)據(jù)生成與高清圖像細(xì)節(jié)兩大核心問題。3、基于StyleGAN的頭發(fā)編輯方案StyleGAN作為當(dāng)前生成領(lǐng)域的主要方向(Gan生成式對抗網(wǎng)絡(luò)),是一種基于風(fēng)格輸入的無監(jiān)督高清圖像生成模型。能夠基于7萬張1024*1024的高清人臉圖像訓(xùn)練數(shù)據(jù)FFHQ,通過精巧的網(wǎng)絡(luò)設(shè)計(jì)與訓(xùn)練技巧生成清晰逼真的圖像效果。基于StyleGAN生成的圖片此外,StyleGAN還能基于風(fēng)格輸入的方式擁有屬性編輯的能力,通過隱變量的編輯,實(shí)現(xiàn)圖像語意內(nèi)容的修改。具體有三步:配對數(shù)據(jù)生成(生發(fā))——配對數(shù)據(jù)增益(控制發(fā)量)——image-to-image生成(高清)。1.配對數(shù)據(jù)生成StyleGAN生成配對數(shù)據(jù)最為直接的方式就是在w+空間直接進(jìn)行相關(guān)屬性的隱向量編輯,生成相關(guān)屬性。其中隱向量編輯方法包括GanSpace、InterFaceGAN以及StyleSpace等等。但這種圖像生成方式通常隱含著屬性向量不解耦的情況,即在生成目標(biāo)屬性的同時往往伴隨其他屬性(背景和人臉信息等)產(chǎn)生變化。因此,MT Lab結(jié)合StyleGAN Projector、PULSE及Mask-Guided Discovery等迭代重建方式來解決生成頭發(fā)配對數(shù)據(jù)的問題。該方案的主要思路是通過簡略編輯原始圖片,獲得一張粗簡的目標(biāo)屬性參考圖像,將其與原始圖像都作為參考圖像,再通過StyleGAN進(jìn)行迭代重建。以為頭發(fā)染淺色發(fā)色為例,需要先對原始圖片中的頭發(fā)區(qū)域染上統(tǒng)一的淺色色塊,經(jīng)由降采樣獲得粗略編輯簡圖作為目標(biāo)屬性參考圖像,在StyleGAN的迭代重建過程中,生成圖片在高分辨率尺度下與原始圖片進(jìn)行相似性監(jiān)督,以保證頭發(fā)區(qū)域以外的原始信息不發(fā)生改變。另一方面,生成圖片通過降采樣與目標(biāo)屬性參考圖像進(jìn)行監(jiān)督,以保生成的淺色發(fā)色區(qū)域與原始圖片的頭發(fā)區(qū)域一致,二者迭代在監(jiān)督平衡下生成期望中的圖像,與此同時也獲得了一個人有無淺色頭發(fā)的配對數(shù)據(jù)。值得強(qiáng)調(diào)的是,在該方案執(zhí)行過程中既要保證生成圖片的目標(biāo)屬性與參考圖像一致,也要保證生成圖像在目標(biāo)屬性區(qū)域外與原始圖片信息保持一致;還需要保證生成圖像的隱向量處于StyleGAN的隱向量分布中,才能夠確保最終的生成圖像是高清圖像。染淺色頭發(fā) StyleGAN 迭代重建示意圖此外,基于該方案的思路,在頭發(fā)生成領(lǐng)域還可以獲取到發(fā)際線調(diào)整的配對數(shù)據(jù)、劉海生成的配對數(shù)據(jù)以及頭發(fā)蓬松的配對數(shù)據(jù)。但是想用補(bǔ)發(fā)功能,前提得還沒毛光光。不然基于頭發(fā)原本顏色的補(bǔ)色,系統(tǒng)一律按膚色計(jì)算了。不同膚色做出來的發(fā)色不一致(左圖為沖浪達(dá)人阿怡視頻中的網(wǎng)紅爺爺)2.配對數(shù)據(jù)增益基于迭代重建,還能夠獲得配對數(shù)據(jù)所對應(yīng)的StyleGAN隱向量,通過隱向量插值的方式還能實(shí)現(xiàn)數(shù)據(jù)增益,進(jìn)而獲得足夠數(shù)量的配對數(shù)據(jù)。以發(fā)際線調(diào)整的配對數(shù)據(jù)為例,在每一組配對數(shù)據(jù)間,可以通過插值獲得發(fā)際線不同程度調(diào)整的配對數(shù)據(jù)。同樣的,兩組配對數(shù)據(jù)間也可以通過隱向量插值獲得更多配對數(shù)據(jù)。此外,通過插值獲得的配對數(shù)據(jù)也能夠生成新的配對數(shù)據(jù),基于此可以滿足對理想的發(fā)際線調(diào)整配對數(shù)據(jù)的需求。3.image-to-image生成基于StyleGan的迭代重建獲得配對數(shù)據(jù)后,就可以通過pixel2piexlHD模型進(jìn)行有監(jiān)督的學(xué)習(xí)訓(xùn)練,這種image-to-image的方式相對穩(wěn)定且針對各類環(huán)境都有穩(wěn)定的結(jié)果輸出。但生成圖像的清晰度還無法達(dá)到理想的效果,因此選擇通過在image-to-image模型上采用StyleGAN的預(yù)訓(xùn)練模型來幫助實(shí)現(xiàn)生成細(xì)節(jié)的提升。傳統(tǒng)的StyleGAN實(shí)現(xiàn)image-to-image的方式是通過encoder網(wǎng)絡(luò)獲得輸入圖的圖像隱向量,然后直接編輯隱向量,最后實(shí)現(xiàn)目標(biāo)屬性圖像生成,但由這種方式生成的圖像與原圖像比對往往相似度較低,無法滿足基于原圖像進(jìn)行編輯的要求。因此MT Lab對這種隱向量編輯的方式進(jìn)行了改進(jìn),一方面直接將原圖像encode到目標(biāo)屬性的隱向量,省去進(jìn)行中間隱向量編輯的步驟;另一方面將encoder網(wǎng)絡(luò)的特征與StyleGAN網(wǎng)絡(luò)的特征進(jìn)行融合,最終通過融合后的特征生成目標(biāo)屬性圖像,以最大限度保證生成圖像與原圖像的相似度,整體網(wǎng)絡(luò)結(jié)構(gòu)與GLEAN模型非常相似。該方式兼顧了圖像高清細(xì)節(jié)生成與原圖相似度還原兩個主要問題,由此也完成了高清且具有真實(shí)細(xì)節(jié)紋理的頭發(fā)生成全流程。頭發(fā)生成網(wǎng)絡(luò)結(jié)構(gòu)4、搞定了頭發(fā),還可以舉一反三這種StyleGAN編輯生成方案也具有很高的擴(kuò)展性。日后圖像編輯和圖像清晰度的難題,可以套用頭發(fā)生成的“三步走”技術(shù)。其中,結(jié)合StyleGAN生成理想頭發(fā)配對數(shù)據(jù)的方式極大地降低了圖像編輯任務(wù)的難度,如將該方案關(guān)注的屬性拓展到頭發(fā)以外,就能夠獲得更多屬性的配對數(shù)據(jù),例如五官更換的配對數(shù)據(jù),借此可以嘗試對任何人臉屬性編輯任務(wù)進(jìn)行落地實(shí)踐。五官更換的配對數(shù)據(jù):原圖(左),參考圖(中),結(jié)果圖(右)借助StyleGAN預(yù)訓(xùn)練模型實(shí)現(xiàn)image-to-image的方式能夠保證生成圖像的清晰度,還可以將其推廣到如圖像修復(fù)、圖像去噪、圖像超分辨率等等更為一般的生成任務(wù)中。編輯:于騰凱校對:林亦霖 瀏覽 31點(diǎn)贊 評論 收藏 分享 手機(jī)掃一掃分享分享 舉報(bào) 評論圖片表情視頻評價全部評論推薦 文檔發(fā)際線有救了!這款app可一鍵AI生發(fā),拯救你的自拍焦慮視學(xué)算法0文檔護(hù)發(fā)5步方程式:拯救你的發(fā)際線拼盤0文檔手機(jī)有這款A(yù)PP的,趕緊卸載!一鍋湯軟件0音樂貓的發(fā)際線 (feat. 吳少)歌手許飛凡是貓的發(fā)際線(feat.吳少)1472358369發(fā)布日期2019-07-15ISRCTW文檔Windows有救了!這款免費(fèi)工具終于來了簡說Python0電影救了一萬次的你 (2022) 本劇主要講述了職場小透明李路多為了跳出時間循環(huán),不得不一次次拯救、改變因員工的怨恨而花式死亡的老文檔可交互的 Attention 可視化工具!我的Transformer可解釋性有救了?機(jī)器學(xué)習(xí)實(shí)驗(yàn)室0文檔拯救你的王國拯救你的王國0游戲拯救你的王國在一款輕松的第三人稱動作游戲中扮演國王,你的任務(wù)是將你的王國從末日使者和他的爪牙中拯救出來。在你的盟文檔【NLP】可交互的 Attention 可視化工具!我的Transformer可解釋性有救了?機(jī)器學(xué)習(xí)初學(xué)者0點(diǎn)贊 評論 收藏 分享 手機(jī)掃一掃分享分享 舉報(bào)