谷歌解雇倫理學(xué)家后三個月,AI倫理研究會議暫停谷歌贊助

大數(shù)據(jù)文摘出品
來源:venturebeat
編譯:在赤道的熊貓
ACM公平、責(zé)任與透明度大會(FAccT)的會議贊助商聯(lián)合主席兼Boise State University助理教授Michael Ekstrand于今天證實,該會議已決定中止與Google的贊助關(guān)系。
AI倫理研究會議的組織者在Google解雇了AI倫理負(fù)責(zé)人Margaret Mitchel一周多和AI倫理聯(lián)合負(fù)責(zé)人Timnit Gebru三個月后才做出這一決定。
Google隨后重組了10個團(tuán)隊的約100名工程師,包括讓Google副總裁Marian Croak領(lǐng)導(dǎo)Ethical AI。
“ FAccT以戰(zhàn)略計劃為指導(dǎo),與執(zhí)行委員會合作,由贊助主席負(fù)責(zé)制定符合該計劃的贊助組合,” Ekstrand在一封電子郵件中告訴VentureBeat。
“執(zhí)行委員會做出決定,認(rèn)為Google做為2021年會議的贊助者不符合社區(qū)的最大利益,并且會阻礙戰(zhàn)略計劃。我們將修改明年會議的贊助政策。”
該決定是在關(guān)于谷歌開除Ethical AI團(tuán)隊負(fù)責(zé)人之后,F(xiàn)AccT是否會繼續(xù)與Google保持的數(shù)天的質(zhì)疑之后進(jìn)行的。這個消息最早是在星期五發(fā)布。
FAccT計劃委員會成員Suresh Venkatasubramanian發(fā)推文說,該組織將暫停與Google的關(guān)系。
停止Google的贊助并不意味著科技巨頭甚至Google本身的贊助終止。
DeepMind,Google的一家公司,作為FAccT會議的另一贊助商,在今年1月引起了AI倫理學(xué)爭議。自2018年成立以來,F(xiàn)AccT一直在尋求谷歌和微軟等大型科技公司、福特基金會和麥克阿瑟基金會的資助。去年發(fā)布的一項報告比較了科技巨頭對AI倫理研究的資助與主要煙草公司對衛(wèi)生研究的資助的歷史,發(fā)現(xiàn)四所著名大學(xué)的研究人員中有近60%都是從大型科技公司獲得資金的。
在Gebru被解雇后,谷歌員工對所謂的“前所未有的研究審查”行為發(fā)起了抗議。上周,路透社報道了另一起涉嫌干擾該公司AI研究的事件,一篇研究論文的合著者引用了Google法律團(tuán)隊的“深層陰險”編輯。
根據(jù)FAccT網(wǎng)站的說法,作為該組織的聯(lián)合創(chuàng)始人的Gebru依舊是數(shù)據(jù)和算法評估建議小組成員,并擔(dān)任項目的委員會主席。Mitchell是該會議的項目共同主席,也是FAccT項目委員會成員。
因為對科技公司缺乏多元化等因素的爭議和與他人合作的論文《論隨機(jī)鸚鵡的危險:語言模型會變得太大嗎?》的發(fā)布,Gebru于2020年12月被谷歌辭退。除了認(rèn)識到預(yù)先訓(xùn)練的語言模型可能會對邊緣化社區(qū)造成的傷害不成比例之外,這篇文章還質(zhì)疑了是否可以通過基準(zhǔn)測試的表現(xiàn)來真正衡量進(jìn)步。該論文還引發(fā)了對大型語言模型潛在的誤用或自動化偏見的擔(dān)憂。
這篇文章談到“如果一個擁有數(shù)千億參數(shù),在非常大的數(shù)據(jù)集上受過訓(xùn)練的大型語言模型可以很好地操縱語言形式,從而通過要求理解語言的測試,那么我們是否學(xué)到了任何有關(guān)如何構(gòu)建語言的有價值的知識,還是我們被帶到了花園的小路上?”。
Gebru被列為該論文的兩位主要作者之一,這篇論文本周被FAccT接受發(fā)表。她的主要合著者是華盛頓大學(xué)的語言學(xué)家Emily Bender。
Emily 所著的大型語言模型的潛在缺陷和更深入批評的需求的文章于去年夏天獲得了計算語言學(xué)協(xié)會的獎項。
VentureBeat去年從熟悉情況的消息來源獲得的論文的副本將Mitchell, Google研究人員Mark Diaz和Ben Hutchinson列為共同作者,他們?nèi)硕季哂姓Z言分析和模型方面的背景。
盡管Mitchell如今在AI倫理方面的工作廣為人知,但她也是計算機(jī)視覺和自然語言處理研究人員中被高度評價的人物,并且是華盛頓大學(xué)2008年文本生成的碩士論文的作者。
Ben Hutchinson與Google的Ethical AI團(tuán)隊的合著者合作,發(fā)表了一篇論文。該論文證明了NLP模型的偏見不利于殘疾人在情緒分析和毒性預(yù)測。Mark Diaz檢查了文本中與年齡相關(guān)的偏見。
Bender和Gebru在這篇文章的各種版本中被列為主要合著者。華盛頓大學(xué)在會議之前發(fā)表的論文的另一版本也將“ Shmargaret Scmitchell”列為作者。
Gebru是一名杰出的algorithmic oppression(算法壓迫)研究人員,并且是Google AI研究人員中僅有的黑人女性之一。
Gebru被解雇導(dǎo)致了成千上萬名Google員工的反對,并指控種族主義和報復(fù)。該事件還引發(fā)了對管制算法有濃厚的興趣的國會議員的提問。它也導(dǎo)致了研究人員質(zhì)疑從Google獲得道德研究資金的道德。
AI,道德和法律方面的專家告訴VentureBeat,Gebru被解雇可能導(dǎo)致一系列政策變化,包括支持更強(qiáng)有力的舉報人法律。被解雇后不久,Gebru談到了將聯(lián)盟化作為保護(hù)AI研究人員的一種手段的想法,Mitchell是2021年1月成立的Alphabet工人聯(lián)盟的成員。
OpenAI、斯坦福大學(xué)的研究人員和專家聯(lián)合在上個月警告說,像Google和OpenAI這樣的大型語言模型,在開始傳播復(fù)制品前只有短短幾個月的時間來設(shè)定其倫理的標(biāo)準(zhǔn)。
今年在FAccT上發(fā)表的其他論文包括分析非洲國家數(shù)據(jù)共享實踐中的常見障礙,對Data&Society的AI on Ground團(tuán)隊的算法影響評估的回顧,以及一個對政府壓制和審查制度如何影響經(jīng)常被用于訓(xùn)練NLP模型的輸入數(shù)據(jù)的文本的研究。
在最近的其他AI研究會議活動中,最受歡迎的年度的機(jī)器學(xué)習(xí)會議NeurIPS的組織者告訴VentureBeat,該組織計劃在圍繞NeurIPS贊助商華為為中國當(dāng)局制造維吾爾族穆斯林檢測系統(tǒng)的問題來修改其贊助政策。
相關(guān)報道:
https://venturebeat.com/2021/03/02/ai-ethics-research-conference-suspends-google-sponsorship/


