<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          一張“紙條”就能騙過AI,OpenAI最先進(jìn)的視覺模型就這?

          共 2775字,需瀏覽 6分鐘

           ·

          2021-03-10 01:37


          到底是蘋果還是 iPod?AI傻傻分不清楚。

          作者 | 貝爽

          今年年初,OpenAI推出了最新一款A(yù)I視覺模型CLIP。

          相信不少人對它還有些印象,經(jīng)過龐大的數(shù)據(jù)集訓(xùn)練,CLIP在圖文識別和融合上展現(xiàn)了驚人的表現(xiàn)力。

          例如,輸入文本“震驚”,AI能夠準(zhǔn)確地通過“瞪眼”這一關(guān)鍵特征來呈現(xiàn),并且再根據(jù)Text、Face、Logo等其他文本信息,將其融合成一張新圖像。

          通過關(guān)鍵詞理解描繪出一張新圖像對于人類來講可能不是什么難事,但對于AI來講,則需要它具有極高的視覺識別和理解能力,包括文本識別和圖像識別。因此,CLIP模型可以說代表了現(xiàn)有計(jì)算機(jī)視覺研究的最高水平。

          然而,正是這個兼具圖文雙重識別能力的AI,卻在一張“紙片”面前翻了車。

          怎么回事呢?

          1


          AI上當(dāng),“蘋果”變 “iPod”

          最近OpenAI研究團(tuán)隊(duì)做了一項(xiàng)測試,他們發(fā)現(xiàn)CLIP能夠輕易被“攻擊性圖像”誤導(dǎo)。

          測試是這樣的,研究人員給CLIP輸入了如下一張圖(左圖):

          AI不僅識別出了這是蘋果,甚至還顯示出了它的品種:Granny Smith。

          然而,當(dāng)研究人員給蘋果上貼上一張寫著iPod的紙片,結(jié)果AI真的被誤導(dǎo)了,如右圖所示,其iPod的識別率達(dá)到了99.7%。

          研究團(tuán)隊(duì)將此類攻擊稱為“印刷攻擊”,他們在官方博客中寫道:“通過利用模型強(qiáng)大的文本讀取能力,即使是手寫文字的照片也會欺騙模型。像‘對抗補(bǔ)丁’一樣,這種攻擊在野外場景也有效。”

          可以看出,這種印刷攻擊實(shí)現(xiàn)起來很簡單,只需要筆和紙即可,而且影響顯著。我們再來看一組案例:

          左圖中,AI成功識別出了貴賓犬(識別率39.3%)。

          但右圖中在貴賓犬身上加上多個“$$$”字符后,AI就將其識別成了存錢罐(識別率52.5%)。

          至于為什么會隱含這種攻擊方式,研究人員解釋說,關(guān)鍵在于CLIP的多模態(tài)神經(jīng)元—能夠?qū)σ晕谋尽⒎柣蚋拍钚问匠尸F(xiàn)的相同概念作出響應(yīng)。

          然而,這種多模態(tài)神經(jīng)元是一把雙刃劍,一方面它可以實(shí)現(xiàn)對圖文的高度控制,另一方面遍及文字、圖像的神經(jīng)元也讓AI變得更易于攻擊。

          2


          “多模態(tài)神經(jīng)元”是根源

          那么,CLIP 中的多模態(tài)神經(jīng)元到底是什么樣子呢?

          此前,OpenAI 的研究人員發(fā)表了一篇新論文《Multimodal Neurons in Artificial Neural Networks》,描述了他們是如何打開 CLIP 來觀察其性能的。

          OpenAI 使用兩種工具來理解模型的激活,分別是特征可視化(通過對輸入進(jìn)行基于梯度的優(yōu)化來最大化神經(jīng)元激活)、數(shù)據(jù)集示例(觀察數(shù)據(jù)集中神經(jīng)元最大激活圖像的分布)。

          通過這些簡單的方法,OpenAI 發(fā)現(xiàn) CLIP RN50x4(使用EfficientNet縮放規(guī)則將ResNet-50放大4倍)中的大多數(shù)神經(jīng)元都可以得到解釋。這些神經(jīng)元似乎是“多面神經(jīng)元”的極端示例——它們只在更高層次的抽象上對不同用例做出響應(yīng)。

          此外,它們不僅對物體的圖像有反應(yīng),而且對草圖、卡通和相關(guān)文本也有反應(yīng)。例如:

          對于CLIP而言,它能識別蜘蛛俠的圖像,從而其網(wǎng)絡(luò)中存在特定的“蜘蛛俠”神經(jīng)元可以對蜘蛛俠的真實(shí)圖像、漫畫圖像作出響應(yīng),也可以對單詞“Spider”(蜘蛛)作出響應(yīng)。

          OpenAI團(tuán)隊(duì)表明,人工智能系統(tǒng)可能會像人類一樣將這些知識內(nèi)部化。CLIP模型意味著未來AI會形成更復(fù)雜的視覺系統(tǒng),識別出更復(fù)雜目標(biāo)。但這一切處于初級階段。現(xiàn)在任何人在蘋果上貼上帶有“iPod”字樣的字條,CLIP之類的模型都無法準(zhǔn)確的識別。

          如在案例中,CLIP 不僅回應(yīng)了存錢罐的圖片,也響應(yīng)了一串串的美元符號。與上面的例子一樣,如果在電鋸上覆蓋“ $$”字符串,就可以欺騙 CLIP 將其識別為儲蓄罐。

          值得注意的是,CLIP 的多模態(tài)神經(jīng)元的關(guān)聯(lián)偏差,主要是從互聯(lián)網(wǎng)上獲取的數(shù)據(jù)中學(xué)到到。研究人員表示,盡管模型是在精選的互聯(lián)網(wǎng)數(shù)據(jù)子集上進(jìn)行訓(xùn)練的,但仍學(xué)習(xí)了其許多不受控制的關(guān)聯(lián)。其中許多關(guān)聯(lián)是良性的,但也有惡性的。 

          例如,恐怖主義和“中東”神經(jīng)元相關(guān)聯(lián),拉丁美洲和“移民”神經(jīng)元相關(guān)聯(lián)。更糟糕的是,有一個神經(jīng)元會和皮膚黝黑的人、大猩猩相關(guān)聯(lián)(這在美國又得引起種族歧視)。 

          無論是微調(diào)還是零樣本設(shè)置下,這些偏見和惡性關(guān)聯(lián)都可能會保留在系統(tǒng)中,并且在部署期間會以可見和幾乎不可見的方式表現(xiàn)出來。許多偏見行為可能很難先驗(yàn)地預(yù)測,從而使其測量和校正變得困難。

          3


          未部署到商業(yè)產(chǎn)品中

          機(jī)器視覺模型,旨在用計(jì)算機(jī)實(shí)現(xiàn)人的視覺功能,使計(jì)算機(jī)具備對客觀世界的三維場景進(jìn)行感知、識別和理解的能力。不難想象,它在現(xiàn)實(shí)世界有著廣泛的應(yīng)用場景,如自動駕駛、工業(yè)制造、安防、人臉識別等。

          對于部分場景來說,它對機(jī)器視覺模型準(zhǔn)確度有著極高的要求,尤其是自動駕駛領(lǐng)域。

          例如,此前來自以色列本·古里安大學(xué)和美國佐治亞理工學(xué)院的研究人員曾對特斯拉自動駕駛系統(tǒng)開展過一項(xiàng)測試。他們在路邊的廣告牌的視頻中添加了一張“漢堡攻擊圖像”,并將停留時間設(shè)置為了0.42秒。

          在特斯拉汽車行駛至此時,雖然圖像只是一閃而過,但還是特斯拉還是捕捉到了“信號”,并采取了緊急剎車。這項(xiàng)測試意味著,自動駕駛的視覺識別系統(tǒng)仍存在明顯的漏洞。

          此外,還有研究人員表明,通過簡單地在路面上貼上某些標(biāo)簽,也可以欺騙特斯拉的自動駕駛軟件,在沒有警告的情況下改變車道。

          這些攻擊對從醫(yī)療到軍事的各種人工智能應(yīng)用都是一個嚴(yán)重的威脅。

          但從目前來看,這種特定攻擊仍在可控范圍內(nèi),OpenAI研究人員強(qiáng)調(diào),CLIP視覺模型尚未部署到任何商業(yè)產(chǎn)品中。

          本文參考來源:

          https://www.theguardian.com/technology/2021/mar/08/typographic-attack-pen-paper-fool-ai-thinking-apple-ipod-clip
          https://www.theverge.com/2021/3/8/22319173/openai-machine-vision-adversarial-typographic-attacka-clip-multimodal-neuron
          https://openai.com/blog/multimodal-neurons/

          本文由雷鋒網(wǎng)原創(chuàng),作者:貝爽。申請授權(quán)請回復(fù)“轉(zhuǎn)載”,未經(jīng)授權(quán)不得轉(zhuǎn)載。


          END

          推薦閱讀
          早報 | 特斯拉股價閃崩1/3沖上熱搜,市值一夜蒸發(fā)2150億;蘋果春季發(fā)布會或定于3月23日;大疆回應(yīng)北美裁員

          新基建一周年,狂熱、下沉與拐點(diǎn)


          國產(chǎn)數(shù)據(jù)庫的"自我博弈"





          瀏覽 35
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日本在线一级片 | 特黄AAAAAAAA片免费直播 | 影音先锋三级资源 | 无码无毛| 国产超清无码片内射 |