谷歌員工又發(fā)聯(lián)名信起義了:Jeff Dean道歉,AI倫理學(xué)家Timnit Gebru回歸

??新智元報道??
??新智元報道??
來源:外媒
編輯:LQ
【新智元導(dǎo)讀】谷歌「解雇AI倫理學(xué)家Timnit Gebru」事件持續(xù)發(fā)酵,不僅引發(fā)了員工起義,也引起了國家勞工部門的訴訟,可謂是內(nèi)憂外患。
圣誕假期臨近,但谷歌卻被持續(xù)的內(nèi)憂外患所籠罩。
近日解雇AI倫理學(xué)家Timnit Gebru導(dǎo)致了谷歌內(nèi)部員工起義的爆發(fā);在解雇事件當(dāng)天,谷歌還遭美國國家勞工關(guān)系委員會(NLRB)提起訴訟,其指控谷歌非法監(jiān)視雇員,報復(fù)性解雇有興趣加入工會的雇員,也和Timnit Gebru有關(guān)。
周三,美國包括德克薩斯州在內(nèi)的10個州又指控谷歌「濫用在線廣告方面的壟斷地位」,直指公司利潤這塊「大肥肉」。
完全沒有過節(jié)的心情了!

自12月9日,谷歌CEO皮采在一封內(nèi)部郵件中道歉之后,谷歌方面對于Timnit Gebru的「離開」沒有再作任何公開表態(tài)。Jeff Dean也在后來的一封郵件中表示「關(guān)于此事1月公司會有最新決定」,大家再等等。
或許領(lǐng)導(dǎo)也是想要為大家保留一點過節(jié)的氣氛。
但員工一點不買賬。
昨天,Gebru的同事Alex Hanna代表谷歌AI倫理研究部門將一封聯(lián)名信交給了谷歌CEO皮采和其他一些谷歌領(lǐng)導(dǎo)。
聯(lián)名信的主要訴求如下:
公司必須進(jìn)行「結(jié)構(gòu)性改革」,以保證谷歌AI倫理研究工作可以繼續(xù)進(jìn)行;
不再向谷歌副總裁Megan Kacholia匯報工作,她和Dean還要道歉;
「Gebru回歸」,并為其提供比此前「更高的薪資」
公開承諾「學(xué)術(shù)誠信」;
管理層進(jìn)行「種族素養(yǎng)培訓(xùn)」。
這次「起義」歸根到底還是Timnit Gebru的那篇論文引發(fā)的。
那么導(dǎo)致事情發(fā)生的根源------Gebru的那篇論文究竟寫了什么,竟然引起如此軒然大波。
Gebru的論文
引發(fā)這場爭論的論文名為《論隨機(jī)鸚鵡的危險: 語言模型會不會太大? 》(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)(在問號后面還有一個鸚鵡表情),它將批判性的眼光投向了人工智能研究中最活躍的領(lǐng)域之一。

自2010年以來,谷歌等科技公司在人工智能領(lǐng)域投入了大量資金,當(dāng)時研究人員發(fā)現(xiàn),他們可以使用一種稱為「機(jī)器學(xué)習(xí)」的技術(shù),使語音和圖像識別更加準(zhǔn)確。一種叫做「深度學(xué)習(xí)」的方法通過將學(xué)習(xí)算法與更大的樣本數(shù)據(jù)集以及更強(qiáng)大的計算機(jī)結(jié)合起來,得到了驚人的結(jié)果。
過去幾年中,超大規(guī)模的語言機(jī)器學(xué)習(xí)模型出現(xiàn),在回答問題或通過機(jī)器學(xué)習(xí)算法,消化從網(wǎng)絡(luò)上搜集的數(shù)十億字的任務(wù)上取得了重大進(jìn)展。這些系統(tǒng)以語言的統(tǒng)計模式運作,不像人類那樣理解這個世界,他們會犯一些對人類來說顯而易見的錯誤。但是在回答問題或生成流暢的新文本方面,他們可以用數(shù)字處理的方式取得令人印象深刻的成果。
谷歌的BERT就是這樣一個系統(tǒng),它被用來改進(jìn)谷歌搜索引擎處理字句很長的查詢的方式。微軟稱將授權(quán)OpenAI的GPT-3用來寫電子郵件和廣告文案。

這種進(jìn)步促使其他研究人員開始質(zhì)疑這種新語言技術(shù)的局限性和可能產(chǎn)生的社會影響。Gebru和論文的其他幾個作者開始將這項工作聯(lián)系在一起,并建議研究團(tuán)體應(yīng)該如何回應(yīng)。
Gebru的這篇論文指出目前該方面研究的局限性包括,語言 AI 會消耗大量的電力,還有谷歌語言模型 BERT的局限性,研究發(fā)現(xiàn)BERT傾向于把一些像大腦麻痹、失明等表示殘疾的短語與負(fù)面的語言聯(lián)系起來。
在Gebru這篇論文中,她和團(tuán)隊敦促人工智能開發(fā)人員對語言項目要更加謹(jǐn)慎,不僅要考慮人工智能開發(fā)人員的觀點,還要考慮那些可能受制于系統(tǒng)輸出或判斷的領(lǐng)域之外的人的觀點。
他們還建議研究人員應(yīng)該做更多的工作來記錄用于創(chuàng)建語言人工智能的文本以及由此產(chǎn)生的系統(tǒng)的局限性。還指出了一些最近提出的用數(shù)據(jù)標(biāo)記人工智能系統(tǒng)的準(zhǔn)確性和弱點的想法。其中一個由Gebru共同參與創(chuàng)建的名為「模型卡片」的模型報告,已經(jīng)被谷歌的云部門采用。
各方的評價
這樣看來,Gebru這篇論文是在提一些建設(shè)性的「改進(jìn)意見」。
倫敦大學(xué)學(xué)院榮譽(yù)副教授朱利安?科內(nèi)比斯(Julien Cornebise)在看過Gebru這篇論文后說:「這是一篇非常扎實、經(jīng)過深入研究的文章,很難想象這會在任何實驗室引起騷動,更不用說會導(dǎo)致某人因此丟掉工作。」
艾倫人工智能研究所(Allen Institute for AI)首席執(zhí)行官奧倫?埃齊奧尼(Oren Etzioni)表示: 「這項工作仍在進(jìn)行中,因為這種偏見有多種形式。幾乎所有在這個領(lǐng)域工作的人都認(rèn)識到,這些模型的影響力正在日益增強(qiáng),在負(fù)責(zé)任地使用它們方面我們責(zé)無旁貸?!?/span>
在寫這篇論文之初,Gebru就找到了華盛頓大學(xué)教授 Emily Bender,與她討論人工智能處理文本的最新進(jìn)展所引發(fā)的倫理問題。Bender在事發(fā)后也表示:「盡管Jeff Dean認(rèn)為這篇論文質(zhì)量不佳(poor quality),但這個領(lǐng)域確實還遠(yuǎn)遠(yuǎn)沒有發(fā)明出一種能夠可靠地消除語言偏見的方法?!?/span>
而Jeff Dean呢?他對這篇論文到底作何評價?
他在郵件中說:「這篇論文本身也有一些重要的缺陷,使我們無法輕松地將谷歌關(guān)聯(lián)其中。例如,關(guān)于如何使模型更有效率以及減少整體環(huán)境影響的重要發(fā)現(xiàn)在論文中都沒有體現(xiàn),也沒有考慮到谷歌和其他研究人員最近在減少語言模型偏見方面的一些工作。強(qiáng)調(diào)風(fēng)險而不提出研究人員和開發(fā)人員理解和減輕這些風(fēng)險的方法,這種做法對于解決這些問題沒有幫助。」
Jeff Dean還強(qiáng)調(diào),這并非他「一家之言」,論文評審結(jié)果是由谷歌和業(yè)內(nèi)一大批研究人員、社會學(xué)家、倫理學(xué)家、政策和隱私顧問以及人權(quán)專家共同決定的。
2020年末的BIG?TECH
2020年末似乎對谷歌并不友好。
不論是內(nèi)部的員工起義,還是國家勞工關(guān)系委的訴訟,還有10州的指控都夠讓人頭大了。
其實,BIg Tech的境況都很棘手:
上周,美國聯(lián)邦貿(mào)易委員會(Federal Trade Commission)和40多個州指控 Facebook 通過收購初創(chuàng)企業(yè)的競爭對手來非法打壓,并主張應(yīng)該拆分該公司。
蘋果和亞馬遜也都在接受聯(lián)邦反壟斷調(diào)查。
艱難如斯。
而谷歌事態(tài)發(fā)展到今天其實也是意料之中,畢竟2年前,谷歌就曾發(fā)生過員工起義,導(dǎo)致當(dāng)時數(shù)千名員工罷工。但事實上,上次提交的「改革清單」到最后大部分都沒有得到滿足,這次提的要求能滿足到什么程度我們靜觀后續(xù)。
參考鏈接:
https://www.wired.com/story/behind-paper-led-google-researchers-firing/
https://www.bloomberg.com/news/articles/2020-12-16/google-ai-researchers-lay-out-demands-escalating-internal-fight?srnd=technology-vp


