熱點追蹤/深度探討/ 實地探訪 / 商務合作 2月20日,谷歌 Ethical AI(AI 倫理)團隊的創(chuàng)始人瑪格麗特·米切爾(Margaret Mitchell)在推特上發(fā)了一條簡短的聲明:“I am fired”。這與去年另一位女性研究員蒂姆尼特·格布魯(Timnit Gebru)的遭遇如出一轍,而這兩位女性正是谷歌 Ethical AI 部門曾經(jīng)的兩位聯(lián)合負責人。
瑪格麗特·米切爾(Margaret Mitchell),圖來源于網(wǎng)絡
去年年底,格布魯發(fā)推表示自己被公司開除,她因一篇論文的發(fā)表與公司上層產(chǎn)生矛盾,被要求撤稿后,她在一篇內(nèi)部郵件中表示了自己對公司種族偏見問題的不滿,隨后被解雇。 從外界角度來看,似乎很難不將米切爾的解雇和格布魯事件聯(lián)系起來。 推特上的唇槍舌戰(zhàn) 這位格布魯是谷歌 AI 倫理部門的聯(lián)合負責人,也是谷歌內(nèi)部極少數(shù)的黑人女研究員(根據(jù)該公司 2020 年年度多樣性報告,Google 員工中有 3.7%是黑人),同時她也是 Black In AI 的聯(lián)合創(chuàng)始人,致力于黑人在算法領域的平權。
前谷歌 AI 倫理部門的聯(lián)合負責人格布魯,圖來源于網(wǎng)絡 而谷歌方,格布魯的上司杰夫·迪恩(Jeff Dean)站出來表示“論文未達到發(fā)表標準,是女方主動拿辭職要挾”。雙方各有說法,在推特上來來回回唇槍舌戰(zhàn)。 事件發(fā)生后,AI 界大多都站在了格布魯這一邊。據(jù) BBC 報道,超過 4500 名來自微軟、谷歌等大公司的科研人員在支持格布魯?shù)墓_信上簽了名,要求谷歌方進一步解釋開除格布魯?shù)脑颉?/strong>今年 1 月,谷歌內(nèi)部員工還成立了 AIphabet 工會,該工會向所有 AIphabet 員工開放,包括臨時工、供應商等,為少數(shù)群體利益發(fā)聲,并要求恢復格布魯的職位。 谷歌公司CEO皮查伊(Pichai)率先出來滅火,承諾將會進行進一步調(diào)查,以期能為這場轟轟烈烈的鬧劇劃上一個句號。今年 2 月,迪恩也向解雇格布魯和對其他女性員工造成的傷害致歉,谷歌還宣布了新的多元化政策,包括將 DEI(多元、公正、包容)目標與副總裁以上級別員工的績效評估掛鉤。這似乎是進一步的滅火行為,但隨后米切爾就被解雇。 如今被開除的米切爾也是一位 AI 道德專家,曾從事機器偏見,種族和性別多樣性以及用于圖像捕獲的語言模型方面的工作,她與格布魯共同領導該公司的道德 AI 團隊。同時值得注意的是,她也是那篇導火線論文的共同創(chuàng)作者。 格布魯被炒魷魚后,米切爾多次在公共平臺表示對谷歌的不滿。今年 1 月份,她被限制了公司內(nèi)部電子郵件訪問權限,就在被開除的幾小時前,米切爾還在推特上發(fā)表了抨擊谷歌“一向疏遠黑人女性”的文章。 谷歌方對于開除米切爾給出的回應是“在對這位經(jīng)理的行為進行審查之后,我們確認存在多次違反我們的行為守則和安全政策的行為,其中包括泄露機密的業(yè)務敏感文件和其他員工的私人數(shù)據(jù)。” 算法偏見 回到導致格布魯和米切爾均被解雇的最初,引起爭議的論文《隨機鸚鵡之險:語言模型會太大嗎?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)》,它從環(huán)保和成本角度、種族和性別方面探討了大型語言模型(如 BERT)帶來的高耗電等風險。同時格布魯指出如果不加區(qū)分地使用現(xiàn)有數(shù)據(jù)訓練人工智能,會進一步加深 AI 語言模型中對少數(shù)邊緣群體的偏見。 該論文的引言中寫道:“我們問是否已對與開發(fā)這些風險相關的潛在風險以及減輕這些風險的策略進行了足夠的思考?!?/span> 谷歌 AI 在 2017 年首先發(fā)明了 Transformer 語言模型,2018 年,在此基礎上推出的 BERT 語言模型在人工智能領域引起轟動,同時也廣泛運用到谷歌搜索引擎的訓練上,已經(jīng)成為谷歌經(jīng)濟收入的重要來源。
谷歌 AI 推出的 “BERT”語言模型,圖來源于網(wǎng)絡 這篇論文是對谷歌目前最有利可圖的 AI 研究提出的擔憂,而這種擔憂并不是空穴來風,AI 中涉及的倫理偏見已經(jīng)不是第一次出現(xiàn)。 2015 年,谷歌相冊將兩個深膚色的人標記為“大猩猩”,谷歌公司當時保證“立即采取措施”,以防止再犯重復錯誤。不過隨后為了解決這一問題,谷歌直接從搜索結果中刪除了這一詞條的標簽?!哆B線》雜志在谷歌相冊上測試了 4 萬多張動物圖片,最終得出了這樣一個結論:谷歌不再將任何圖片標記為大猩猩、黑猩猩、猴子,即使就是這種動物的圖片也是如此。 而去年,最令人震驚的 AI 偏見應該是 PULSE 算法將奧巴馬識別為一位白人男性。這個由英偉達開發(fā)出的算法,使用一種叫“upscaling”的技術來處理視覺數(shù)據(jù),把原始的低分辨率圖片生成為一個全新的高分辨率面部圖像。該算法的創(chuàng)建者解釋稱這種偏差可能繼承于訓練 AI 的數(shù)據(jù)集,這些數(shù)據(jù)集中缺少有色人種的存在,在此基礎上訓練出的 AI 將會默認使用白種人特征。 在今年的疫情期間,谷歌 AI 也出現(xiàn)了類似情況。 經(jīng)非盈利研究和倡導組織 AIgorithmWatch 證實,谷歌旗下計算機服務 Google Vision Cloud 會將手持測溫計的深膚色人員圖像標記為“槍”,而相同條件下,淺膚色人員圖像則被標記為“電子設備”。究其原因,這與深膚色的人員圖像在數(shù)據(jù)訓練時在暴力場景出現(xiàn)的高頻率有關,隨后谷歌致歉并更新了算法,測溫計圖像中不再出現(xiàn)“槍支”標記。這種對于有色人種在數(shù)據(jù)訓練中的忽視,已經(jīng)成為 AI 偏見常出現(xiàn)的情況。
Google Vision Cloud 的錯誤標記,圖來源于網(wǎng)絡 沖突中心的谷歌 AI 倫理問題產(chǎn)生的根源,是人類社會中存在著相同的偏見。 一直以來,硅谷科技公司向外界展示著它開放、平等的文化。早在 2014 年,硅谷的 33 家科技公司就共同簽訂了多元化承諾。然而除算法偏見,近幾年,微軟、亞馬遜、Uber 等公司卻頻頻爆出關于性別歧視、膚色偏見的道德丑聞,曾經(jīng)的全球最佳雇主谷歌也難逃其中。
2018 年,據(jù)《紐約時報》報道,谷歌向因性騷擾傳聞離職的“安卓之父”安迪·魯賓(Andy Rubin )支付了約 9000 萬美元,并在過去 10 年中保護了包括魯賓在內(nèi)的三位被指控性行為不端的男性高管。 這引發(fā)了谷歌員工的強烈抗議,全球 20 多個辦事處的 20000 多名員工進行了歷史性的集體大罷工,走上街頭喊出“我們要透明度、追責和架構調(diào)整”的口號。隨后谷歌致歉,并承諾將會撤銷針對性不端行為的強制仲裁。 雖然近年來 Google 內(nèi)部不斷出現(xiàn)各種 AI 相關的倫理討論時間,外界持續(xù)不斷地批評 Google 在這些方面做得不夠好。但從另一個角度看,在 AI 行業(yè)在全球快速發(fā)展的當下,也只有 Google 內(nèi)部爆出了如此大范圍的嚴肅討論,這恰恰是從 Google 一直以來自由管理、直言不諱的文化中誕生的。 在格布魯離職風波后,不只是 Ethical AI 團隊,整個谷歌公司的氛圍都持續(xù)緊張。沸沸揚揚的爭議聲和谷歌內(nèi)部多次抗議中,谷歌成立了硅谷的第一個大型工會 AIphabet Workers Union,旨在讓員工自由發(fā)聲。 在今年,經(jīng)過多撥討伐的迪恩向格布魯事件致歉,并且任命了另一位黑人女性 瑪麗安·克拉克(Mariian Croak)為 Ethical AI 的主管,繼續(xù)向他匯報工作。Ethical AI 成立的初衷就是為了監(jiān)控 Google AI 的道德走向,為此,這個部門也是公司中多元化程度最高的一個部門,將那些在算法中那些最有可能受到偏見傷害的弱勢群體聚集到一起。 值得注意的是,AIphabet 工會并沒有在這件事后停下腳步。今年 2 月 11 日,AIphabet 工會向谷歌提出不公平勞動指控,這是該工會的第一個法律行動,與先前的公開信等行動不同,本次指控具備法律效力。 對于一個充滿黑箱和未知的技術,AI 值得人們探討的問題還有很多。Google 是第一家爆發(fā)激烈討論的公司,但它絕不會是最后一家。