<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          計(jì)算機(jī)視覺的“慘勝”:反思大型圖像數(shù)據(jù)集

          共 4050字,需瀏覽 9分鐘

           ·

          2021-09-02 18:01

          大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自數(shù)據(jù)實(shí)戰(zhàn)派
          作者:LZM

          誕生于第二次世界大戰(zhàn)、恐怖納粹統(tǒng)治時(shí)期的1947年紐倫堡法案和隨后的1964年赫爾辛基宣言,幫助人們建立起了知情同意原則(Informed Consent),該原則建立在人類尊嚴(yán)和控制關(guān)于自己信息傳播的基礎(chǔ)上。

          在接下來的數(shù)十年間,知情同意原則指導(dǎo)了醫(yī)學(xué)、心理學(xué)等學(xué)科收集實(shí)驗(yàn)對象數(shù)據(jù)的方式。

          盡管這一原則尚不完善,但是它仍然在一定程度上保護(hù)了大數(shù)據(jù)時(shí)代的個(gè)人隱私保護(hù)。

          然而,在這個(gè)大數(shù)據(jù)時(shí)代,知情同意、隱私或個(gè)人代理的基礎(chǔ)已經(jīng)逐漸被侵蝕。政府機(jī)構(gòu)、學(xué)術(shù)界和工業(yè)界都在未經(jīng)同意的情況下,以匿名的名義積累了數(shù)以百萬計(jì)的人類圖像,通常是出于未聲明的目的。

          這些說法具有誤導(dǎo)性,因?yàn)榭傮w而言,匯總數(shù)據(jù)的匿名性和隱私性較弱,更重要的是,人臉圖像不是可以匯總的數(shù)據(jù)類型。從表1可以看出,在同行評議的文獻(xiàn)中發(fā)現(xiàn)了數(shù)千萬人的圖像,這些圖像是在未經(jīng)個(gè)人同意或知情的情況下獲得的,也沒有得到IRB(強(qiáng)制性機(jī)構(gòu)審查委員會)的批準(zhǔn)。

          表1. 包含人類圖像的大規(guī)模數(shù)據(jù)集


          在此背景下,UnifyID AI Labs的Vinay Uday Prabhu, The Irish Software Research Centre的Abeba Birhane,將目光關(guān)注最著名和最規(guī)范的大規(guī)模圖像數(shù)據(jù)集之一:ImageNet數(shù)據(jù)集。

          從有問題的圖像來源方式到圖像中的人類標(biāo)簽,再到使用這些圖像訓(xùn)練人工智能模型的下游效應(yīng),ImageNet和大規(guī)模視覺數(shù)據(jù)集(下文簡稱“LSVD”),構(gòu)成了計(jì)算機(jī)視覺的代價(jià)巨大的勝利。

          在他們的論文LARGE DATASETS: A PYRRHIC WIN FOR COMPUTER VISION?中,兩人指出,這場勝利是以損害少數(shù)群體為代價(jià)的(數(shù)據(jù)實(shí)戰(zhàn)派后臺回復(fù)“ImageNet”獲取論文下載鏈接)。

          這個(gè)高質(zhì)量但低隱私的計(jì)算機(jī)視覺行業(yè)新起點(diǎn),變相助長了在這之后數(shù)年技術(shù)對個(gè)人和集體隱私、同意權(quán)的侵蝕。

          ImageNet數(shù)據(jù)集的出現(xiàn)被廣泛認(rèn)為是深度學(xué)習(xí)革命的關(guān)鍵時(shí)刻,這場革命徹底改變了計(jì)算機(jī)視覺(CV)和人工智能(AI)。

          在ImageNet之前,計(jì)算機(jī)視覺和圖像處理研究人員在小數(shù)據(jù)集上訓(xùn)練圖像分類模型,如CalTech101 (9k圖像)、PASCAL-VOC (30k圖像)、LabelMe (37k圖像)和SUN (131k圖像)數(shù)據(jù)集。

          ImageNet擁有超過1400萬張圖像,分布在21,841個(gè)synsets中,包含1,034,908個(gè)邊界框注釋,彌補(bǔ)了以前規(guī)模方面的缺失,主導(dǎo)了曾經(jīng)的計(jì)算機(jī)視覺奧運(yùn)會,擁有6000萬個(gè)參數(shù)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)在這個(gè)數(shù)據(jù)集中大放異彩。

          ImageNet創(chuàng)建于十多年前,迄今仍是最具影響力和最強(qiáng)大的圖像數(shù)據(jù)庫之一。在它創(chuàng)建的多年后進(jìn)行事后審判,似乎是多余的,但I(xiàn)mageNet確實(shí)對其他大規(guī)模數(shù)據(jù)集的持續(xù)性和計(jì)算機(jī)視覺領(lǐng)域的文化培養(yǎng)起到了關(guān)鍵作用。

          威脅在哪?


          從ImageNet出發(fā),這篇論文總結(jié)了缺乏謹(jǐn)慎倫理考慮、對負(fù)面社會后果預(yù)期的數(shù)據(jù)集管理實(shí)踐的潛在危害和威脅。

          • 反向圖像搜索引擎的興起,隱私的喪失和勒索威脅


          如果在構(gòu)建大型圖像數(shù)據(jù)集時(shí)沒有仔細(xì)考慮社會影響,將對個(gè)人的福利和福祉構(gòu)成威脅。

          最常見的情況是,弱勢群體和邊緣化人群付出了不成比例的高昂代價(jià)。

          在過去的一年里,允許人臉?biāo)阉鞯裙δ艿姆聪驁D像搜索引擎的效率顯著提高,只要付一小筆費(fèi)用,任何人都可以使用他們的門戶或API來運(yùn)行一個(gè)自動(dòng)化的過程,以揭示ImageNet數(shù)據(jù)集中一幅面孔對應(yīng)的“真實(shí)世界”身份。

          例如,在性工作受到社會譴責(zé)或在法律上被定為犯罪的社會中,通過圖像搜索重新識別性工作者,對個(gè)體受害者來說是一種真正的危險(xiǎn)。如緊身衣,胸罩,比基尼等包含了海灘偷窺和其他非自愿采集的圖像,通過圖片搜索,可以輕易把這些圖像和本人聯(lián)系到一起,而這些受害者通常為女性。


          • 更大、更不透明的數(shù)據(jù)集出現(xiàn)


          構(gòu)建計(jì)算機(jī)視覺的嘗試是漸進(jìn)的,其起點(diǎn)可以追溯到1966年P(guān)apert的夏季視覺項(xiàng)目。

          然而,ImageNet憑借其海量數(shù)據(jù),不僅在人工智能歷史上樹立了一個(gè)權(quán)威的里程碑,還為更大、更強(qiáng)大、令人懷疑不透明的數(shù)據(jù)集制作鋪平了道路。

          計(jì)算機(jī)視覺社區(qū)對ImageNet數(shù)據(jù)集缺乏審查,這只會鼓勵(lì)學(xué)術(shù)和商業(yè)機(jī)構(gòu)在不經(jīng)過審查的情況下建立更大的數(shù)據(jù)集。

          例如,近年來許多高被引論文都使用了一個(gè)名為JFT-300M的大規(guī)模視覺數(shù)據(jù)集。

          這個(gè)數(shù)據(jù)集可以說是“在黑暗中運(yùn)行”。甚至沒有官方說明JFT-300M到底代表什么意思。行業(yè)所知的是它擁有超過3億張圖片,這些圖片分布于一萬八千個(gè)類別之中。

          開源的open Images V4-5-6包含一個(gè)三百多萬圖像的子集,涵蓋2萬個(gè)類別(還擁有一個(gè)擴(kuò)展數(shù)據(jù)集,包含五十萬眾包圖像,涵蓋6000多個(gè)類別)。但被發(fā)現(xiàn)包含有11張未經(jīng)雙方同意的兒童圖片,而這些圖片是從flickr上下載的。

          對這種不透明的、有偏見的(半)合成數(shù)據(jù)集的任何下游算法進(jìn)行基準(zhǔn)測試,只會導(dǎo)致有爭議的情況。

          因此,有必要再次強(qiáng)調(diào),這些數(shù)據(jù)集的存在和使用對人們產(chǎn)生直接和間接的影響,因?yàn)樯鐣Y(jié)果的決策越來越依賴于通過這些數(shù)據(jù)進(jìn)行訓(xùn)練的系統(tǒng)。

          然而,盡管有這樣深刻的影響,這些數(shù)據(jù)究竟來自哪里?圖像被使用是否獲得了共識?這樣的關(guān)鍵問題卻很少被認(rèn)為是LSVD管理過程的一部分。

          ImageNet在更廣泛的人工智能社區(qū)中培養(yǎng)的文化更微妙,也許是間接的影響,在這種文化中,將真人的圖像作為自由獲取的原材料,已經(jīng)被視為一種常態(tài)。這種常態(tài)不僅對我們常說的弱勢群體,而且對我們所知的隱私的真正含義也構(gòu)成了威脅。

          • 知識共享謬論


          知識共享許可協(xié)議只涉及版權(quán)問題,而不涉及隱私權(quán)或同意將圖像用于訓(xùn)練。然而,ImageNet之外的許多努力,包括開放圖像數(shù)據(jù)集,都是建立在這種基礎(chǔ)上的,大規(guī)模數(shù)據(jù)集管理機(jī)構(gòu)將“對所有人免費(fèi)開放”視為綠色通行證。

          兩位作者認(rèn)為,這本質(zhì)上是錯(cuò)誤的,正如知識共享組織提出的觀點(diǎn)所證明的那樣:“CC許可的設(shè)計(jì)是為了解決一個(gè)特定的約束,它們做得很好:解除限制性的版權(quán)。但版權(quán)不是保護(hù)個(gè)人隱私、解決人工智能發(fā)展中的研究倫理問題或規(guī)范在線監(jiān)控工具使用的好工具?!?/span>

          解決方案?


          科技研究和社會科學(xué)領(lǐng)域數(shù)十年的工作表明,對大多數(shù)更廣泛的社會和倫理挑戰(zhàn),幾乎不存在單一直接的解決方案。

          這些挑戰(zhàn)深深植根于社會和文化結(jié)構(gòu),并構(gòu)成基本社會結(jié)構(gòu)的一部分。當(dāng)人工智能系統(tǒng)被灌輸了世界的美、丑、殘忍的信息,但期待它只反映美是一種幻想。

          鑒于我們所面臨的挑戰(zhàn)的廣度,任何快速解決問題的嘗試,都有可能掩蓋問題,并可能提供一種錯(cuò)誤的解決方案。

          例如,所謂的完全消除偏見的想法,在現(xiàn)實(shí)中,可能只是把那些偏見深深隱藏起來。此外,許多挑戰(zhàn)(偏見、歧視、不公正)隨著環(huán)境、歷史和地點(diǎn)的變化而變化,它們是不斷變化的概念,這些變化相當(dāng)于一個(gè)移動(dòng)的目標(biāo)。

          • 刪除、替換和開放


          在ImageNet數(shù)據(jù)集中,2832個(gè)人物類別中有1593個(gè)有潛在的攻擊性標(biāo)簽,并計(jì)劃從ImageNet中刪除所有這些標(biāo)簽。兩位作者強(qiáng)烈主張對Tiny Images數(shù)據(jù)集中的攻擊性名詞類以及ImageNet-ILSVRC-2012數(shù)據(jù)集中屬于可驗(yàn)證色情、非自愿場景拍攝、海灘窺淫癖和暴露生殖器類別的圖像采取類似的行為。

          在圖像類別被保留但圖像不被保留的情況下,可以選擇用經(jīng)雙方同意拍攝的經(jīng)濟(jì)補(bǔ)償?shù)膱D像來替換。這些照片中的一些人可能會站出來表示同意,并貢獻(xiàn)他們的照片,以換取公平的經(jīng)濟(jì)補(bǔ)償、信用,或純粹出于利他主義。

          然而,這種解決方案帶來了進(jìn)一步的問題?我們最終會不會得到一個(gè)主要由經(jīng)濟(jì)上處于不利地位的參與者的圖像池?

          • 允許圖像刪除請求


          論文作者發(fā)現(xiàn),一些反向圖片搜索引擎,確實(shí)允許用戶通過他們的“報(bào)告濫用”門戶網(wǎng)站從索引中刪除特定的圖片。這有助于減輕某些方面的直接傷害。

          • 個(gè)性化人臉模糊


          這個(gè)方法需要使用DP-Blur等技術(shù),以量化的隱私保證來模糊圖像中人類的身份。

          • 數(shù)據(jù)集蒸餾


          其基本思想是在模型訓(xùn)練期間使用(或增加)合成圖像來代替真實(shí)圖像。

          方法包括使用手繪草圖圖像,使用GAN生成的圖像和數(shù)據(jù)集蒸餾技術(shù),其中數(shù)據(jù)集或數(shù)據(jù)集的子集被蒸餾為幾個(gè)有代表性的合成樣本。這是一個(gè)新興的領(lǐng)域,在跨視覺領(lǐng)域的無監(jiān)督域適應(yīng)等領(lǐng)域已經(jīng)出現(xiàn)了一些有前景的結(jié)果。

          • 倫理強(qiáng)化的過濾


          對ImageNet進(jìn)行縱向分析時(shí),作者發(fā)現(xiàn),如果在數(shù)據(jù)集篩選階段向眾包人員提供明確的指令,從源頭上對這些圖像進(jìn)行過濾,可以避免具體的道德違規(guī)。作者希望,在未來,倫理檢查能成為未來數(shù)據(jù)集管理工作中不可分割的一部分。

          • 數(shù)據(jù)集審核卡


          背景對于確定一個(gè)特定的數(shù)據(jù)集是否符合倫理或有問題至關(guān)重要,因?yàn)樗峁┝酥匾谋尘靶畔ⅲ鴶?shù)據(jù)表是提供背景的有效方法。因此,作者提出了數(shù)據(jù)集審計(jì)卡的方法。這允許大規(guī)模圖像數(shù)據(jù)集管理人員在公開數(shù)據(jù)集的同時(shí),也發(fā)布目標(biāo)、管理過程、已知缺點(diǎn)和注意事項(xiàng)。如下圖所示的,使用所執(zhí)行的定量分析為ImageNet數(shù)據(jù)集規(guī)劃了一個(gè)示例數(shù)據(jù)集審計(jì)卡。


          文章中,作者對ImageNet進(jìn)行了跨類別定量分析,以評估道德違規(guī)的程度和基于模型注釋的方法的可行性,包括57個(gè)不同指標(biāo)(參見補(bǔ)充部分)的圖像級和類級分析、計(jì)數(shù)、年齡和性別(CAG)、nsfw評分、類標(biāo)簽的語義和使用預(yù)先訓(xùn)練的模型分類的準(zhǔn)確性。具體可見論文,在此不多做贅述。

          總而言之,這項(xiàng)研究督促機(jī)器學(xué)習(xí)社區(qū)密切關(guān)注其工作直接和間接的社會影響,特別是對弱勢群體的影響。

          在這方面,對當(dāng)前工作的歷史背景、背景和政治維度的認(rèn)識是必要的,由此推動(dòng)人工智能數(shù)據(jù)集管理實(shí)踐的更新,例如在大規(guī)模數(shù)據(jù)集管理過程中建立機(jī)構(gòu)審查委員會(IRB)等等。


          點(diǎn)「在看」的人都變好看了哦!
          瀏覽 48
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  五月天久久影院 | 国产AV电影网 | 天天免费摸天天免费日 | 午夜福利久久 | 狠狠的干 |