這款 App 火遍全網(wǎng),馬云和馬斯克齊唱“螞蟻呀嘿”?
又一款 App 火遍全網(wǎng),它能讓包括馬化騰、馬云、馬斯克在內(nèi)的名人“齊唱一曲”,并配有生動(dòng)的表情,可以說(shuō)相當(dāng)魔性。
這款 App 名叫 Avatarify,已經(jīng)連續(xù)好幾天登頂中國(guó)區(qū) App Store 免費(fèi)榜。

事實(shí)上,Avatarify 并不是一款新推出的應(yīng)用。據(jù)了解,Avatarify 的創(chuàng)作者是一位開(kāi)發(fā)人員,最初是因?yàn)?2020 年疫情期間開(kāi)視頻會(huì)議時(shí)覺(jué)得無(wú)聊,于是在去年 4 月左右做了這么一個(gè)換臉開(kāi)源項(xiàng)目。
當(dāng)時(shí)該項(xiàng)目也登上了 GitHub 熱榜。據(jù)項(xiàng)目作者 Ali Aliev 介紹,Avatarify 使用了當(dāng)年 3 月份一篇 arXiv 論文的方法“First Order Motion”,無(wú)需事先對(duì)目標(biāo)圖像進(jìn)行任何訓(xùn)練,就能用另一個(gè)人的視頻來(lái)替換自己的圖像。在使用 Avatarify 時(shí),會(huì)借助 deepfake 等技術(shù),在想要交換的臉部圖像上對(duì)算法進(jìn)行訓(xùn)練。一般來(lái)說(shuō)需要幾張你想要用的那個(gè)人的圖像,在目標(biāo)圖像的相似類別上訓(xùn)練算法即可,該模型也支持實(shí)時(shí)換臉操作。
項(xiàng)目地址:https://github.com/alievk/avatarify
幾個(gè)月后,開(kāi)發(fā)者將它做成了 App。直到最近,這款 App 才突然在中國(guó)火了起來(lái)。
Avatarify 的玩法很簡(jiǎn)單:只需導(dǎo)入手機(jī)中的圖像或?qū)崟r(shí)拍一張照片,然后在 Avatarify 的素材庫(kù)中選擇需要使用的模版,選擇 24fps 或 12fps 的幀率后,就能夠一鍵生成 Gif 動(dòng)圖。
Deepfake 換臉并不是新鮮概念,比如曾經(jīng)曇花一現(xiàn)的“ZAO”,還有 FaceApp、Reface 等等都是基于 Deepfake 的應(yīng)用,并且不少修圖 App 現(xiàn)今都具備類似功能。
這次 Avatarify 的爆火或許跟“螞蟻呀嘿”模版的魔性有關(guān),洗腦 BGM 和隨 BGM 實(shí)時(shí)匹配的五官表情,確實(shí)挺讓人“上頭”。

除了純娛樂(lè)目的,最近還有公司推出了以“深度懷舊”(deep nostalgia)為題的功能,可以將親人的照片加工,哪怕只有一張,也可以做成一段視頻,視頻中的親人可以向他們微笑、點(diǎn)頭和眨眼。這是近日由 MyHeritage,一家供用戶研究家譜的網(wǎng)站所推出的新功能。
該功能由 MyHeritage 與以色列計(jì)算機(jī)視覺(jué)公司 D-ID 合作開(kāi)發(fā),D-ID CEO Gil Perry 表示,人們現(xiàn)在可以“以過(guò)去絕對(duì)想象不到的方式來(lái)感知自己家遙遠(yuǎn)過(guò)去的祖先”。他還表示,讓昔日人物重現(xiàn)是一個(gè)人們?cè)絹?lái)越感興趣的領(lǐng)域。

“在合成媒體領(lǐng)域,我們自認(rèn)為是好人,為了崇高的目的使用這項(xiàng)技術(shù)?!盙il Perry 表示,D-ID 對(duì)選擇什么公司合作有嚴(yán)格的準(zhǔn)則,而且其視頻上打有水印,顯示這些視頻為人工合成。
需要注意的是,AI 換臉系列軟件在供大眾娛樂(lè)的同時(shí),如果涉及使用名人肖像,且存在商業(yè)用途則使用者將要承擔(dān)法律風(fēng)險(xiǎn)。比如此前日本有人在網(wǎng)上搜集公開(kāi)的女明星 DeepFake 假視頻,并從中挑出比較有人氣的放在自己經(jīng)營(yíng)的免費(fèi)猥褻視頻站,收取高額廣告費(fèi)用,雖然視頻不是他做的,但此舉同樣會(huì)被當(dāng)?shù)鼐揭岩悦u(yù)侵權(quán)罪起訴。
另一方面,提起“ZAO”,有些用戶或許還記得它當(dāng)時(shí)引起的隱私安全問(wèn)題。推出之時(shí),其用戶協(xié)議、隱私政策和版權(quán)說(shuō)明的相關(guān)規(guī)定,被指有過(guò)濫收集用戶信息和侵犯版權(quán)的嫌疑。不友好的用戶協(xié)議更使得該應(yīng)用一夜之間從刷屏變成遭萬(wàn)人指責(zé)。
當(dāng)時(shí)“ZAO”的一條授權(quán)協(xié)議指出:用戶上傳發(fā)布內(nèi)容后,即意味著同意授予 ZAO 及其關(guān)聯(lián)公司以及 ZAO 用戶在“全球范圍內(nèi)完全免費(fèi)、不可撤銷、永久、可轉(zhuǎn)授權(quán)和可再許可的權(quán)利”,“包括但不限于可以對(duì)用戶內(nèi)容進(jìn)行全部或部分的修改與編輯(如將短視頻中的人臉或者聲音換成另一個(gè)人的人臉或者聲音等)以及對(duì)修改前后的用戶內(nèi)容進(jìn)行信息網(wǎng)絡(luò)傳播以及《著作權(quán)法》規(guī)定的由著作權(quán)人享有的全部著作財(cái)產(chǎn)權(quán)利及鄰接權(quán)利”。因安全性存疑,該用戶協(xié)議被發(fā)現(xiàn)后立刻引發(fā)爭(zhēng)議,雖然 ZAO 后來(lái)悄悄修改了其用戶協(xié)議,以回應(yīng)用戶對(duì)其隱私泄露的質(zhì)疑,但仍未能消除用戶對(duì)它的擔(dān)憂。
InfoQ 留意到,Avatarify 應(yīng)用內(nèi)有多處關(guān)于數(shù)據(jù)安全的提醒,并強(qiáng)調(diào)用戶的照片和視頻都不會(huì)上傳到云端。

對(duì)于 Deepfake 引發(fā)假消息和假新聞泛濫的可能性,也是讓人擔(dān)憂的問(wèn)題。
當(dāng) Deepfake 在 2017 年首次流行起來(lái)時(shí),它絕大多數(shù)被用于在互聯(lián)網(wǎng)論壇上生成名人的假色情作品。即使在 2019 年,根據(jù) Sensity 的調(diào)查,96% 的公開(kāi)發(fā)布的 Deepfake 內(nèi)容都是色情相關(guān)。
除了色情作品外,各種各樣的網(wǎng)絡(luò)創(chuàng)作者還將 Deepfake 應(yīng)用于其他形式的媒體,比如電影片段,個(gè)人不斷制作病毒式傳播的視頻,并將視頻中的演員面孔替換成其他影星。
而只要有一個(gè) Deepfake 視頻在網(wǎng)上引起關(guān)注,就會(huì)有許多人發(fā)表評(píng)論說(shuō),他們擔(dān)心有人利用 Deepfake 來(lái)影響政治以達(dá)到邪惡目的。因?yàn)樵谛畔r(shí)代,人們很容易就可以在互聯(lián)網(wǎng)上散布政敵的虛假新聞,而這些虛假新聞可以蒙騙觀眾。
不過(guò)計(jì)算機(jī)視覺(jué)工程師 Eric Hofesmann 認(rèn)為,雖然未來(lái)的媒體內(nèi)容里,Deepfake 可能會(huì)產(chǎn)生可怕的錯(cuò)誤信息。然而目前的技術(shù)還處于比較初級(jí)的階段,高質(zhì)量的 Deepfake 仍需要大量的人工操作。而隨著 Deepfake 的改進(jìn),應(yīng)對(duì) Deepfake 的方法和算法也在不斷完善。至少在目前,更令人擔(dān)憂的是通過(guò)人工編輯的圖片和視頻來(lái)傳播錯(cuò)誤信息。
麻省理工學(xué)院研究員 Matt Groh 認(rèn)為,如果你認(rèn)為你可能看到的是 Deepfake 內(nèi)容,那么你應(yīng)該特別仔細(xì)地觀察幾點(diǎn):
臉部:臉部的某些部位是否出現(xiàn)了“毛刺”?當(dāng)他們說(shuō)話時(shí),他們的眉毛和面部肌肉是否會(huì)動(dòng)?他們的頭發(fā)看起來(lái)是否自然地垂下?
音頻:音頻和人臉上的表情是否匹配?音頻中有沒(méi)有怪異的剪輯或跳躍,聽(tīng)起來(lái)不自然?
光線:視頻中是否有部分光線與場(chǎng)景其他部分不匹配?在眼鏡之類的東西上看到反光了嗎?
end


@程序員,這筆錢下個(gè)月可以領(lǐng)!

微信終于可以免費(fèi)提現(xiàn)了!
