吳恩達的2021回顧,這些大事件影響了AI這一年
日期 : 2022年01月21日
正文共 :5151字

12 月 23 日,機器學(xué)習(xí)大牛吳恩達(Andrew Ng)在其主編的人工智能周訊《The Batch》上發(fā)表了最新文章。文章中,吳恩達回顧了 2021 年全球人工智能在多模態(tài)、大模型、智能語音生成、Transformer 架構(gòu)、各國 AI 法律舉措等方面的主要進展。
2021 年即將過去。
日前,吳恩達發(fā)表了以“贈人玫瑰、手有余香”為主題的圣誕寄語。
隨著 2021 年底的臨近,你可能正在減少工作為寒假做準(zhǔn)備。我很期待能暫時放下工作休息一下,希望你也一樣。
十二月有時被稱為給予的季節(jié)。如果你有空閑時間,想知道如何利用它,我認(rèn)為我們每個人能做的最好的事情之一,就是思考如何能夠幫助別人。
歷史學(xué)家、哲學(xué)家威爾·杜蘭特曾說過:“重復(fù)的行為造就了我們。”如果你不斷地尋求提升他人,這不僅會幫助他們,或許同樣重要的是,它也會讓你成為一個更好的人。正是你的重復(fù)行為定義了你的為人。還有一個經(jīng)典的研究表明,把錢花在別人身上可能比花在自己身上更讓你快樂。
所以,在這個假期,我希望你能休息一段時間。休息、放松、充電!與那些你愛的、但在過去的一年里沒有足夠的時間聯(lián)系的人聯(lián)系。如果時間允許,做一些有意義的事情來幫助別人。可以是在博客文章中留下鼓勵的評論、與朋友分享建議或鼓勵、在線上論壇上回答一個人工智能問題、或為一個有價值的事業(yè)捐款。在與教育和(或)科技相關(guān)的慈善機構(gòu)中,我最喜歡的有維基媒體基金會、可汗學(xué)院、電子前沿基金會和 Mozilla 基金會。
吳恩達還談到了 AI 社區(qū)的發(fā)展。他表示:AI 社區(qū)在規(guī)模很小的時候就有很強的合作精神。這感覺就像一群無畏的先鋒們在向全世界進軍。人們渴望幫助別人,提供建議,彼此鼓勵,相互介紹。那些從中獲益的人往往無以為報,所以我們通過幫助后繼者作為回報。隨著人工智能社區(qū)的發(fā)展,我希望保持這種精神。我承諾將繼續(xù)努力建設(shè)人工智能社區(qū)。希望你也可以!
我也希望你們能考慮各種方式,無論大小,向人工智能社區(qū)以外的人伸出援手。世界上還有很多地方?jīng)]有先進的技術(shù)。我們的決定影響著數(shù)十億美元和數(shù)十億人的生命。這給了我們一個在世界上行善的特殊機會。
吳恩達回顧了 2021 年全球人工智能的進展并展望了 2022 年以及之后 AI 技術(shù)的發(fā)展前景。
回顧 2021 年
過去一年以來,整個世界都在跟極端天氣、經(jīng)濟通脹、供應(yīng)鏈中斷以及 COVID-19 病毒作斗爭。
在科技領(lǐng)域,遠(yuǎn)程辦公與線上會議貫穿了這整整一年。AI 社區(qū)則繼續(xù)努力彌合整個世界,推進機器學(xué)習(xí)發(fā)展,同時加強其造福各行各業(yè)的能力。
這一次,我們希望重點展望 2022 年及之后 AI 技術(shù)的發(fā)展前景。
多模態(tài) AI 的起飛
雖然 GPT-3 和 EfficientNet 等單獨針對文本及圖像等任務(wù)的深度學(xué)習(xí)模型備受矚目,但這一年中最令人印象深刻的還是,AI 模型在發(fā)現(xiàn)許可證與圖像間關(guān)系中取得了進步。
背景信息
OpenAI 通過 CLIP(實現(xiàn)圖像與文本匹配)與 Dall·E(根據(jù)輸入文本生成對應(yīng)圖像)開啟了多模式學(xué)習(xí)的開端;DeepMind 的 Perceiver IO 則著手對文本、圖像、視頻及點云進行分類;斯坦福大學(xué)的 ConVIRT 嘗試為醫(yī)學(xué) X 射線影像添加文本標(biāo)簽。
重要標(biāo)桿
雖然這些新的多模式系統(tǒng)大多處于實驗階段,但也已經(jīng)在實際應(yīng)用中取得突破。
開源社區(qū)將 CLIP 與生成對抗網(wǎng)絡(luò)(GAN)相結(jié)合,開發(fā)出引人注目的數(shù)字藝術(shù)作品。藝術(shù)家 Martin O’Leary 使用 Samuel Coleridge 的史詩作品《忽必烈大汗》為輸入,生成了充滿迷幻色彩的“Sinuous Rills”。
Facebook 表示其多模式仇恨言論檢測器能夠標(biāo)記并刪除掉社交網(wǎng)絡(luò)上 97% 的辱罵及有害內(nèi)容。該系統(tǒng)能夠根據(jù)文本、圖像及視頻等 10 種數(shù)據(jù)類型將模因與其他圖像 - 文本對準(zhǔn)確劃分為“良性”或“有害”。
谷歌表示已經(jīng)在搜索引擎中添加了多模式(及多語言)功能。其多任務(wù)統(tǒng)一模型能夠返回文本、音頻、圖像及視頻鏈接,用以響應(yīng)由 75 種語言提交的各類查詢。
新聞背后
今年的多模態(tài)發(fā)展態(tài)勢源自幾十年來堅實的研究基礎(chǔ)。
早在 1989 年,約翰霍普金斯大學(xué)和加州大學(xué)圣迭戈分校的研究人員就開發(fā)出一種基于元音的分類系統(tǒng),用以識別人類語音中的音頻與視覺數(shù)據(jù)。
接下來的二十年間,更多研究小組先后嘗試過數(shù)字視頻庫索引及基于證據(jù) / 視覺數(shù)據(jù)的人類情緒分類等多模式應(yīng)用方案。
發(fā)展現(xiàn)狀
圖像與文本如此復(fù)雜,因此研究人員在很長一段時間內(nèi)只能專注于其中一種。在此期間,他們開發(fā)出多種不同技術(shù)成果。
但過去十年中,計算機視覺與自然語言處理已經(jīng)在神經(jīng)網(wǎng)絡(luò)中得到有效融合,也讓二者的最終合璧成為可能 —— 甚至音頻集成也獲得了參與的空間。
萬億級參數(shù)
過去一年,模型經(jīng)歷了從大到更大的發(fā)展歷程。
背景信息:
谷歌用 Switch Transformer 拉開了 2021 年的序幕,這是人類歷史上首個擁有萬億級參數(shù)的模型,總量達 1.6 萬億。
北京人工智能研究院則回敬以包含 1.75 萬億參數(shù)的悟道 2.0。
重要標(biāo)桿
單純拉高模型參數(shù)并沒什么特別。但隨著處理能力和數(shù)據(jù)源的增長,深度學(xué)習(xí)開始真正確立起“越大越好”的發(fā)展原則。
財力雄厚的 AI 廠商正以狂熱的速度堆積參數(shù),既要提高性能、又要展示“肌肉”。特別是在語言模型方面,互聯(lián)網(wǎng)廠商為無監(jiān)督和半監(jiān)督預(yù)訓(xùn)練提供了大量未經(jīng)標(biāo)記的數(shù)據(jù)。
2018 年以來,這場參數(shù)層面的軍備競賽已經(jīng)從 BERT(1.1 億)、GPT-2(15 億)、MegatronLM(83 億)、Turing-NLG(170 億)、GPT-3(1750 億)一路走來,如今終于邁過了萬億級大關(guān)。
挺好,但是……
模型的膨脹路線也帶來了新的挑戰(zhàn)。愈發(fā)龐大的模型令開發(fā)者們面臨四大嚴(yán)酷障礙。
數(shù)據(jù):大型模型需要吸納大量數(shù)據(jù),但網(wǎng)絡(luò)和數(shù)字圖書館等傳統(tǒng)數(shù)據(jù)源往往提供不了這么多高質(zhì)量素材。例如,研究人員常用的 BookCorpus 是一套包含 11000 本電子書的數(shù)據(jù)集,之前已被用于訓(xùn)練 30 多種大型語言模型;但其中包含某些宗教偏見,因為內(nèi)容主要討論基督教和伊斯蘭教義,對其他宗教幾無涉及。
AI 社區(qū)意識到數(shù)據(jù)質(zhì)量將直接決定模型質(zhì)量,但卻一直未能就大規(guī)模、高質(zhì)量數(shù)據(jù)集的有效編譯方法達成共識。
速度:如今的硬件仍難以處理大體量模型,當(dāng)數(shù)據(jù)反復(fù)出入內(nèi)存時,模型的訓(xùn)練和推理速度都會受到嚴(yán)重影響。
為了降低延遲,Switch Transformer 背后的谷歌團隊開發(fā)出一種方法,能夠讓各個 token 只處理模型各層中的一個子集。他們的最佳模型預(yù)測速度甚至比參數(shù)量只有其三十分之一的傳統(tǒng)模型還快 66%。
另外,微軟開發(fā)的 DeepSpeed 庫則選擇了并行處理數(shù)據(jù)、各層及層組的路線,并通過在 CPU 和 GPU 間劃分任務(wù)以減少處理冗余。
能耗:訓(xùn)練如此龐大的網(wǎng)絡(luò)會消耗大量電能。2019 年的一項研究發(fā)現(xiàn),在 8 個英偉達 P100 GPU 上訓(xùn)練一個包含 2 億參數(shù)的 transformer 模型所造成的碳排放(以化石燃料發(fā)電計算),相當(dāng)于一輛普通汽車五年的行駛總排放量。
當(dāng)然,Cerebras 的 WSE-2 及谷歌最新 TPU 等新一代 AI 加速型芯片有望降低排放,而風(fēng)能、太陽能及其他清潔能源的供應(yīng)也在同步增加。相信 AI 研究對環(huán)境的破壞將愈發(fā)輕微。
模型交付:這些龐大的模型很難在消費級或邊緣設(shè)備上運行,所以真正的規(guī)模部署只能通過互聯(lián)網(wǎng)訪問或精簡版本實現(xiàn)——不過二者目前各有問題。
發(fā)展現(xiàn)狀
自然語言建模排行榜中的主力仍然是千億級模型,畢竟萬億級參數(shù)的處理難度實在太高。
但可以肯定,未來幾年會有更多萬億級俱樂部成員加入進來,而且這種趨勢仍將持續(xù)。有傳聞稱,OpenAI 規(guī)劃中的 GPT-3 繼任者將包含更加恐怖的百萬億級參數(shù)。
AI 生成音頻內(nèi)容漸成“主流化”
音樂家和電影制作人們,已經(jīng)習(xí)慣于使用 AI 支持型音頻制作工具。
背景信息
專業(yè)媒體制作人們會使用神經(jīng)網(wǎng)絡(luò)生成新的聲音并修改舊有聲音。配音演員們自然對此大為不滿。
重要標(biāo)桿
生成模型能夠從現(xiàn)有錄音中學(xué)習(xí)特征,進而創(chuàng)造出令人信服的復(fù)制品。也有些制作人直接使用這項技術(shù)原創(chuàng)聲音或模仿現(xiàn)有聲音。
美國初創(chuàng)公司 Modulate 使用生成對抗網(wǎng)絡(luò)為用戶實時合成新的語音,使得游戲玩家和語聊用戶能夠建立起自己的虛擬角色;也有跨性別者用它調(diào)整自己的聲音,借此獲得與性別身份相一致的音色。 Sonantic 是一家專門從事聲音合成的初創(chuàng)公司。演員 Val Kilmer 于 2015 年因咽喉手術(shù)而喪失了大部分發(fā)聲能力,該公司則利用原有素材為他專門創(chuàng)造了一種音色。 電影制作人 Morgan Neville 聘用一家軟件公司,在自己的紀(jì)錄片《流浪者: 一部關(guān)于安東尼·波登的電影》中重現(xiàn)了已故旅游節(jié)目主持人波登的聲音。但此舉引起了波登遺孀的憤怒,她表示自己并未許可這種行為。
OpenAI 的 Jukebox 就使用 120 萬首歌曲進行訓(xùn)練,可利用自動編碼器、轉(zhuǎn)換器及解碼器管道進行全實時錄音生成,風(fēng)格涵蓋從貓王到艾米納姆等多位歌手。 2019 年,某匿名 AI 開發(fā)者設(shè)計出一種技術(shù),允許用戶在短短 15 秒內(nèi)利用文本行重現(xiàn)動畫及視頻游戲角色的聲音。
TransGAN 是一套生成對抗網(wǎng)絡(luò),結(jié)合 transformers 以確保所生成的各個像素都與之前已生成的像素一致。這項成果能夠有效衡量所生成圖像與原始訓(xùn)練數(shù)據(jù)之間的相似度。 Facebook 的 TImeSformer 使用該架構(gòu)識別視頻片段中的動作元素。它的任務(wù)不再是從文本中識別單詞序列,而是嘗試解釋視頻幀中的序列關(guān)系。其性能優(yōu)于卷積神經(jīng)網(wǎng)絡(luò),能夠在更短時間內(nèi)分析更長的視頻片段,因此能耗也控制在更低水平。 Facebook、谷歌及加州大學(xué)伯克利分校的研究人員在文本上訓(xùn)練出 GPT-2,之后凍結(jié)了其 self-attention 與 feed-forward 層。在此基礎(chǔ)上,他們可以針對不同用例進行模型微調(diào),包括數(shù)學(xué)、邏輯問題及計算機視覺等。 DeepMind 發(fā)布了 AlphaFold 2 的開源版本,其使用 transformers 根據(jù)氨基酸序列預(yù)測蛋白質(zhì)的 3D 結(jié)構(gòu)。該模型在醫(yī)學(xué)界內(nèi)掀起軒然大波,人們普遍認(rèn)為其具備推動藥物發(fā)現(xiàn)和揭示生物學(xué)原理的巨大潛力。
歐盟起草了基于風(fēng)險類別的機器學(xué)習(xí)應(yīng)用禁止或限制條例。實時人臉識別與社會信用系統(tǒng)被明令禁止;對于重要基礎(chǔ)設(shè)施的控制、執(zhí)法協(xié)助及生物識別技術(shù)等應(yīng)用方向則需要提交詳細(xì)的說明文件,證明 AI 方案安全可靠并持續(xù)接受人工監(jiān)督。
從明年開始,中國互聯(lián)網(wǎng)監(jiān)管機構(gòu)將強制對可能破壞社會公序良俗的 AI 系統(tǒng)與推薦算法執(zhí)行監(jiān)督。打擊的目標(biāo)包括傳播虛假信息、引導(dǎo)成癮行為及危害國家安全的各類系統(tǒng)。企業(yè)在部署任何可能左右公眾情緒的算法之前必須獲得批準(zhǔn),違規(guī)算法一律不得上線。 美國政府提出一項 AI 權(quán)利法案,用以保護公民免受可能侵犯隱私及公民權(quán)利的系統(tǒng)的影響。政府將在明年 1 月 15 日前持續(xù)為提案收集公眾意見。在聯(lián)邦以下,多個州及市一級政府開始限制人臉識別系統(tǒng)。紐約市通過一項法律,要求對招聘算法進行偏見審計。 聯(lián)合國民權(quán)高級專員呼吁各成員國暫停 AI 的某些用途,包括可能侵犯人權(quán)、限制民眾獲取基本服務(wù)、以及濫用私人數(shù)據(jù)的情形。
— THE END —

