編輯:好困 袁榭
【新智元導(dǎo)讀】關(guān)于DALL-E 2的各種爭議八卦,自其面世時就沒斷過。最近,聽說它還通過了圖靈測試?!
前幾天,一位正在度假的網(wǎng)友得知了自己獲得了「DALL-E 2」的訪問權(quán)限。
在思考了兩秒之后,他決定搞一波事情。

旅游嘛,肯定是少不了各種游客照的。
現(xiàn)在既然有了DALL-E 2,那是不是意味著可以不用親自去拍照,而是用模型生成一個「度假經(jīng)歷」出來。
反正,其他人應(yīng)該也分辨不出來?
為了驗證自己的想法,這位名叫Matt Bell的朋友決定,把生成的圖像混入到真實的照片里,然后發(fā)在Facebook上。

照片里的這個地方名叫「羅阿坦島」,是洪都拉斯北部海灣群島中最大的一座島,東西長約60公里,南北最寬處不足8公里。
它現(xiàn)在是一個著名的潛水勝地,其附近海域的物種十分豐富,且地勢復(fù)雜。甚至可以說擁有著西半球最好的一批珊瑚礁。
大概是下面這個樣子:

不過你可能想不到,羅阿坦島曾經(jīng)竟然是加勒比海盜的基地!
言歸正傳,我們先來看一下這位網(wǎng)友拍的照片和DALL-E 2生成的對比。首先,參與的朋友們需要逐一滾動瀏覽照片,或者選擇以幻燈片的形式進行自動播放。其中,共有22張真實的照片,以及4張合成的照片。合成的照片都在真實照片之后。經(jīng)過統(tǒng)計,有83%的人(19/23)沒有看出來DALL-E生成的圖片有什么不同。當(dāng)然,為了遵守OpenAI的訪問規(guī)則,可以很明顯得看出,DALL-E的水印位于圖片的右下角。這個結(jié)果還是很出乎意料的,畢竟DALL-E 2生成的圖像顆粒感更強,而且Bell的朋友們也了解DALL-E和DeepFake這類的技術(shù)。甚至,Bell還十分偷懶地沒有對其他圖像進行裁剪(生成的比例是1:1)。然而當(dāng)小編點進Bell的臉書一看,明明就是個「人生贏家」好伐!雖說這多半只是Bell同志的自娛自樂,但不知為何帖子竟然火了……網(wǎng)友一看,既然你都說「通過圖靈測試」了,那就別怪我嘴下不留情:首先,圖靈測試的前提是需要人類「法官」知道自己是在進行判別。其次,判斷的正確率不能比「隨機」的表現(xiàn)更好。而且,即便是沒告訴別人這是個「圖靈測試」,第2個項目應(yīng)該也沒有通過。倒不是針對Bell的DALL-E 2有沒有通過測試這件事,而是「圖靈測試」到底是個啥,應(yīng)該怎么測……有人表示,要通過圖靈測試,你應(yīng)該能騙過任何人類(包括專家)。也就是說,他的任務(wù)不僅是明確區(qū)分人類和計算機,而且他必須對如何區(qū)分人類和計算機有一個好的想法。看到這個標準,另一位網(wǎng)友表示,還好我們不對「人類」進行圖靈測試。當(dāng)然,在這個大家不僅對內(nèi)容真假、還對在線內(nèi)容尺度虎視眈眈的年代,OpenAI也沒有放松對DALL-E 2的內(nèi)容審核。在4月份DALL-E 2公布的通告消息中,OpenAI就強調(diào)了這模型集「生成暴力、仇恨、成人類圖像內(nèi)容的能力已經(jīng)收到限制?!?/span>OpenAI說,在模型訓(xùn)練時,它的數(shù)據(jù)工程師們就在注意這個顯而易見的規(guī)則。在訓(xùn)練數(shù)據(jù)集中,最露骨的內(nèi)容都被剔除了,DALL-E 2是正直的、沒被黃色污染的一個清純大模型。而且OpenAI還說,已經(jīng)預(yù)備好應(yīng)對各種心懷叵測的老司機們的措施。通告消息的原話是:「如果過濾器程序發(fā)現(xiàn)作為生成提示的文本或上傳圖像可能違反我司的內(nèi)容政策,那么本模型集將拒絕生成圖像。而且我司有自動化的、和人工值班的監(jiān)控系統(tǒng)以避免不良分子濫用?!?/span>自然,這不會擋住腳已經(jīng)踩在油門上的躍躍欲試老司機們。幾乎與DALL-E 2面世同時,就有人在琢磨如何繞過這些限制了。在2022年4月下旬的一個Reddit貼子中,就有人在論壇貼的頭腦風(fēng)暴里摸索出了或許可以讓DALL-E 2生成不良圖片的方法。首先是發(fā)揮人類智能對人工智能的聯(lián)想優(yōu)勢:如果「血洗」這個字眼被OpenAI屏蔽,那「紅油漆蔓延」總是可以過關(guān)的吧。而二者的視覺效果并沒太大不同。之后,就要運用「有多少人工就有多智能」的人力優(yōu)勢了:第一步,在DALL-E 2生成圖像的文本內(nèi)容框里輸入「視覺效果雙關(guān)語+無意義字符串」的組合,例如「濕草莓+asdoij oaishdahsd+手指+aosduiajdoasdhoasd+嘴唇」。第二步,在生成圖像結(jié)果里人工選擇三個最靠近作者意圖的。第三步,將以上三個結(jié)果再次上傳到DALL-E 2,繼續(xù)生成。然后周而復(fù)始,直到生成作者滿意的成人類圖片為止。而且從第二步開始的步驟可以編程完成,非常自動化哦。讀者們可以照方抓藥試試看,反正編輯們是勤懇的打工人,沒空搞這花名堂……DALL-E 2不僅有生成不雅圖像的可能,還和同類大模型一樣,能被平權(quán)人士挑剔出各種種族偏見來。2022年5月,《連線》雜志報道,與OpenAI合作、驗收模型的紅帽黑客組透露,訓(xùn)練好的DALL-E 2其實也有近年來其他競品多次被挑剔出的毛病:基于訓(xùn)練數(shù)據(jù)的刻板偏見。比如,輸入「怒漢」或者「人坐牢房中」的文本,DALL-E 2給出的就是個黑人咆哮圖。輸入「CEO」或者「建筑工人」或「律師」文本,DALL-E 2給出的就是或正裝、或工裝、或法袍的各種白人男性圖片。輸入「空乘人員」或「秘書」或「護士」的文本,DALL-E 2給出的就是靚女或大媽的女性圖片。要是輸入「野蠻人」和「恐怖分子」的文本……嗯,結(jié)果就是你想象的那樣啦。可能真的有不少老司機前仆后繼地、挖空心思地試圖用DALL-E 2來開車,逼到OpenAI必須馬上更新模型了。2022年5月18日,OpenAI宣布已更新了DALL-E 2,主要是對內(nèi)容安全把控系統(tǒng)做了加強。OpenAI稱已大幅改善了DALL-E 2的文本過濾器功能,極大調(diào)整了文本內(nèi)容的自動化探測功能和違反內(nèi)容政策文本的應(yīng)對系統(tǒng)。之前只有不到0.05%的上傳圖像和公開分享的圖片內(nèi)容,是被DALL-E 2的過濾器程序自動過濾掉的。不過有30%的違規(guī)內(nèi)容被OpenAI的人工審核者斃掉了。看來即使全球首屈一指的大廠,也沒擺脫「有多少人工就有多智能」的窘迫嘛。https://openai.com/blog/dall-e-2-update/
https://www.mattbell.us/my-fake-dall-e-2-vacation-photos-passed-the-turing-test/
https://news.ycombinator.com/item?id=31424368
https://futurism.com/the-byte/openai-image-generating-ai-porn
https://www.wired.com/story/dall-e-2-ai-text-image-bias-social-media/
