<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          [譯]谷歌研究員:“我們的AI沒有護(hù)城河,OpenAI也沒有”

          共 4018字,需瀏覽 9分鐘

           ·

          2024-04-11 04:20

          我們沒有護(hù)城河

          我們一直在關(guān)注 OpenAI 的動(dòng)向。誰(shuí)將達(dá)到下一個(gè)里程碑?下一步會(huì)是什么?

          但不舒服的事實(shí)是,我們無(wú)法贏得這場(chǎng)軍備競(jìng)賽,OpenAI 也一樣。當(dāng)我們爭(zhēng)吵不休時(shí),第三方一直在悄悄地?fù)屨嘉覀兊氖袌?chǎng)。

          我當(dāng)然是在談?wù)撻_源。簡(jiǎn)單地說,他們正在超越我們。我們認(rèn)為的“重大開放問題”已經(jīng)被解決,并且現(xiàn)在已經(jīng)掌握在人們手中。僅舉幾個(gè)例子:

          • 手機(jī)上的LLMs: 人們正在Pixel 6上以每秒5個(gè)標(biāo)記的速度運(yùn)行基礎(chǔ)模型 at 5 tokens / sec.

          • 可擴(kuò)展的個(gè)人人工智能: 您可以在一晚上在您的筆記本電腦上微調(diào)個(gè)性化的人工智能

          • 這并不是“解決”,而是“避免”:  這個(gè)網(wǎng)站充滿了沒有任何限制的藝術(shù)模特,而文本也不遠(yuǎn)了, and text is not far behind.

          • 多模態(tài): 目前多模態(tài)ScienceQA SOTA在一個(gè)小時(shí)內(nèi)進(jìn)行了訓(xùn)練

          雖然我們的模型在質(zhì)量方面仍然稍占優(yōu)勢(shì),但差距正在迅速縮小。開源模型更快、更可定制、更私密,而且在性能上更勝一籌。他們用100美元和13B個(gè)參數(shù)做的事情,我們用1000萬(wàn)美元和540B個(gè)參數(shù)仍然很困難。而且他們只需要幾周的時(shí)間,而不是幾個(gè)月的時(shí)間。這對(duì)我們有深遠(yuǎn)的影響:

          • 我們沒有秘密武器。我們最好的希望是從谷歌之外的其他人所做的事情中學(xué)習(xí)并合作。我們應(yīng)該優(yōu)先考慮啟用第三方集成。

          • 當(dāng)免費(fèi)、不受限制的替代品在質(zhì)量上相當(dāng)時(shí),人們不會(huì)為受限制的模型付費(fèi)。我們應(yīng)該考慮我們真正的價(jià)值所在。

          • 巨型模型正在拖慢我們的速度。從長(zhǎng)遠(yuǎn)來看,最好的模型是那些可以快速迭代的。既然我們知道在小于20B參數(shù)范圍內(nèi)可能實(shí)現(xiàn)什么,我們應(yīng)該將小變體視為重要的事情,而不是事后的想法。

          e99afd0544b2838341fc46f120f15aa5.webp

          What Happened

          三月初,開源社區(qū)得到了他們的第一個(gè)真正有能力的基礎(chǔ)模型,Meta的LLaMA泄露給了公眾。它沒有指令或?qū)υ捳{(diào)整,也沒有RLHF。盡管如此,社區(qū)立即理解了他們所得到的東西的重要性。

          緊接著是一系列驚人的創(chuàng)新,每個(gè)重大進(jìn)展之間僅相隔數(shù)天(詳見時(shí)間軸)。現(xiàn)在,僅僅一個(gè)月后,已經(jīng)出現(xiàn)了具有指令調(diào)整、量化、質(zhì)量改進(jìn)、人類評(píng)估、多模態(tài)、RLHF等變體,其中許多變體都是相互建立的。

          最重要的是,他們已經(jīng)解決了擴(kuò)展問題,以至于任何人都可以進(jìn)行調(diào)整。許多新想法來自普通人。培訓(xùn)和實(shí)驗(yàn)的準(zhǔn)入門檻已經(jīng)從一個(gè)主要研究機(jī)構(gòu)的總產(chǎn)出降至一個(gè)人、一個(gè)晚上和一臺(tái)強(qiáng)大的筆記本電腦。

          為什么我們本可以預(yù)見到它的到來

          在許多方面,這對(duì)任何人來說都不應(yīng)該是一個(gè)驚喜。開源LLM的當(dāng)前復(fù)興緊隨圖像生成的復(fù)興之后。社區(qū)沒有忽視這些相似之處,許多人稱這是LLM的“穩(wěn)定擴(kuò)散時(shí)刻”。

          在這兩種情況下,低成本的公眾參與都得益于一種名為低秩適應(yīng)(LoRA)的微調(diào)機(jī)制,以及在規(guī)模上取得的重大突破(圖像合成的潛在擴(kuò)散,LLM的Chinchilla)。在這兩種情況下,獲得足夠高質(zhì)量的模型引發(fā)了全球個(gè)人和機(jī)構(gòu)的一系列想法和迭代。在這兩種情況下,這很快超越了大型參與者。

          這些貢獻(xiàn)對(duì)于圖像生成領(lǐng)域至關(guān)重要,使得 Stable Diffusion 走上了與 Dall-E 不同的道路。擁有一個(gè)開放的模型導(dǎo)致了產(chǎn)品集成、市場(chǎng)、用戶界面和創(chuàng)新,這些在 Dall-E 上沒有發(fā)生。

          效果是明顯的:在文化影響方面,快速占主導(dǎo)地位,而OpenAI的解決方案變得越來越無(wú)關(guān)緊要。LLMs是否會(huì)發(fā)生同樣的事情還有待觀察,但廣泛的結(jié)構(gòu)元素是相同的。

          我們錯(cuò)失了什么

          最近開源取的成功創(chuàng)新直接解決了我們?nèi)栽谂鉀Q的問題,我們應(yīng)當(dāng)更加關(guān)注他們的工作,這可以幫助我們避免重復(fù)造輪子。

          LoRA是一種非常強(qiáng)大的技術(shù),我們可能應(yīng)該更加關(guān)注它

          LoRA的工作原理是將模型更新表示為低秩分解,這將更新矩陣的大小減少了數(shù)千倍。這使得模型微調(diào)的成本和時(shí)間降低了很多。在消費(fèi)級(jí)硬件上能夠在幾個(gè)小時(shí)內(nèi)個(gè)性化一個(gè)語(yǔ)言模型是一件大事,特別是對(duì)于涉及在幾乎實(shí)時(shí)中融合新的和多樣化知識(shí)的愿景而言。盡管這項(xiàng)技術(shù)直接影響我們最雄心勃勃的項(xiàng)目之一,但它在谷歌內(nèi)部的利用還不足。

          從頭開始重新訓(xùn)練模型是一條艱難的道路

          LoRA 如此有效的部分原因在于它像其他微調(diào)形式一樣是可堆疊的。例如,指令微調(diào)等改進(jìn)可以應(yīng)用,然后隨著其他貢獻(xiàn)者添加對(duì)話、推理或工具使用等內(nèi)容而發(fā)揮作用。雖然單個(gè)微調(diào)的等級(jí)較低,但它們的總和并不低低,因?yàn)樗鼈冊(cè)试S模型的全等級(jí)更新是隨著時(shí)間的推移不斷累積。

          這意味著隨著新的和更好的數(shù)據(jù)集和任務(wù)的出現(xiàn),模型可以便宜地保持最新狀態(tài),而無(wú)需支付完整運(yùn)行的成本。

          相比之下,從頭開始訓(xùn)練巨型模型不僅會(huì)丟棄預(yù)訓(xùn)練,還會(huì)丟棄在其基礎(chǔ)上進(jìn)行的任何迭代改進(jìn)。在開源世界中,這些改進(jìn)很快就會(huì)占據(jù)主導(dǎo)地位,使得完全重新訓(xùn)練變得極其昂貴。

          我們應(yīng)該仔細(xì)思考每個(gè)新應(yīng)用或新想法是否真的需要一個(gè)全新的模型。如果我們確實(shí)有重大的架構(gòu)改進(jìn),使得直接重用模型權(quán)重不可行,那么我們應(yīng)該采取更積極主動(dòng)的知識(shí)提煉方式,以盡可能保留上一代模型的能力。

          如果我們可以更快地迭代小模型,那么大模型在長(zhǎng)期內(nèi)并不更具有能力

          LoRA更新成本低廉(最受歡迎的模型大小約為100美元),這意味著幾乎任何有想法的人都可以生成并分發(fā)它。訓(xùn)練時(shí)間不到一天就可以完成。在這樣的速度下,所有這些微調(diào)的累積效應(yīng)很快就會(huì)克服起點(diǎn)劣勢(shì)。事實(shí)上,就工程師小時(shí)而言,這些模型的改進(jìn)速度遠(yuǎn)遠(yuǎn)超過我們最大變體的能力,而且最好的模型已經(jīng)在很大程度上與ChatGPT難以區(qū)分。實(shí)際上,專注于維護(hù)一些全球最大的模型實(shí)際上會(huì)使我們處于劣勢(shì)。

          數(shù)據(jù)質(zhì)量比數(shù)據(jù)大小更重要

          許多這些項(xiàng)目通過在小型、高度篩選的數(shù)據(jù)集上進(jìn)行訓(xùn)練來節(jié)省時(shí)間。這表明數(shù)據(jù)縮放規(guī)律存在一定的靈活性。這些數(shù)據(jù)集的存在源于《數(shù)據(jù)不會(huì)按你想象的那樣工作》一書中的思路,并且它們正在迅速成為谷歌以外進(jìn)行訓(xùn)練的標(biāo)準(zhǔn)方式。這些數(shù)據(jù)集是使用合成方法構(gòu)建的(例如從現(xiàn)有模型中篩選出最佳響應(yīng)),并從其他項(xiàng)目中進(jìn)行回收利用,這兩種方法在谷歌都沒有占主導(dǎo)地位。幸運(yùn)的是,這些高質(zhì)量的數(shù)據(jù)集是開源的,因此可以免費(fèi)使用。

          直接與開源競(jìng)爭(zhēng)是一種失敗的提議

          這最近的進(jìn)展對(duì)我們的商業(yè)策略有直接、即時(shí)的影響。如果有一個(gè)沒有使用限制的免費(fèi)高質(zhì)量替代品,誰(shuí)會(huì)愿意購(gòu)買谷歌的產(chǎn)品呢?

          我們不應(yīng)該期望能夠追趕上來。現(xiàn)代互聯(lián)網(wǎng)之所以運(yùn)行在開源軟件上,是有其重要優(yōu)勢(shì)的,而這些優(yōu)勢(shì)我們無(wú)法復(fù)制。

          我們需要他們,比他們需要我們更多

          保守我們技術(shù)的秘密一直是一個(gè)不好建議。谷歌的研究人員會(huì)跳槽,因此我們可以假設(shè)他們知道我們所知道的一切,并且只要有人跳槽,外部就將繼續(xù)知道我們的秘密。

          但是,由于LLM的尖端研究是負(fù)擔(dān)得起的,因此在技術(shù)上保持競(jìng)爭(zhēng)優(yōu)勢(shì)變得更加困難。世界各地的研究機(jī)構(gòu)都在相互努力的基礎(chǔ)上,以遠(yuǎn)遠(yuǎn)超過我們自身能力的廣度優(yōu)先的方式探索解決方案空間。我們可以在外部創(chuàng)新稀釋其價(jià)值的同時(shí),努力保守自己的秘密,也可以努力相互學(xué)習(xí)。

          個(gè)人受許可證的限制程度不如公司嚴(yán)格

          這種創(chuàng)新大部分是在Meta泄露的模型的基礎(chǔ)上進(jìn)行的。雖然隨著真正開放的模型變得更好,這種情況不可避免地會(huì)發(fā)生改變,但關(guān)鍵是他們不必等待。由“個(gè)人使用”提供的法律保護(hù)和起訴個(gè)人的不切實(shí)際意味著,個(gè)人可以在這些技術(shù)處于熱門時(shí)獲得對(duì)它們的訪問權(quán)。

          成為自己的客戶意味著你理解使用情況

          縱觀人們?cè)趫D像生成領(lǐng)域中創(chuàng)建的模型,有著廣泛的創(chuàng)造力,從動(dòng)漫生成器到HDR風(fēng)景。這些模型是由深度沉浸在特定子流派中的人們使用和創(chuàng)建的,他們擁有我們無(wú)法匹敵的知識(shí)深度和共情能力。

          擁有生態(tài)系統(tǒng):讓開源為我們服務(wù)

          諷刺的是,在所有這些事件中唯一的明顯贏家是Meta。因?yàn)樾孤兜哪P褪撬麄兊?,他們有效地獲得了整個(gè)星球的免費(fèi)勞動(dòng)力。由于大多數(shù)開源創(chuàng)新都是在他們的架構(gòu)之上進(jìn)行的,所以沒有什么能阻止他們直接將其納入他們的產(chǎn)品中。

          擁有生態(tài)系統(tǒng)的價(jià)值不可高估。谷歌本身已經(jīng)成功地在其開源產(chǎn)品中使用了這種范式,例如Chrome和Android。通過擁有創(chuàng)新發(fā)生的平臺(tái),谷歌鞏固了自己作為思想領(lǐng)袖和方向設(shè)定者的地位,贏得了塑造超越自身的思想敘述的能力。

          我們?cè)绞菄?yán)格控制我們的模型,就越能使開放式替代方案更具吸引力。Google和OpenAI都傾向于采用防御性的發(fā)布模式,以便保持對(duì)其模型使用方式的嚴(yán)格控制。但這種控制是虛構(gòu)的,因?yàn)槿魏卧噲D將LLMs用于未經(jīng)授權(quán)目的的人都可以隨意選擇免費(fèi)提供的模型。

          谷歌應(yīng)該在開源社區(qū)中確立自己的領(lǐng)導(dǎo)地位,通過與更廣泛的對(duì)話合作來領(lǐng)導(dǎo)。這可能意味著采取一些不舒服的步驟,比如發(fā)布小型ULM變體的模型權(quán)重。這必然意味著放棄對(duì)我們模型的一些控制。但這種妥協(xié)是不可避免的。我們不能希望既推動(dòng)創(chuàng)新又控制它。

          結(jié)語(yǔ):OpenAI 怎么樣了?

          所有這些關(guān)于開源的討論可能會(huì)讓人感到不公平,因?yàn)镺penAI目前的政策是封閉的。如果他們不分享,為什么我們要分享呢?但事實(shí)是,我們已經(jīng)通過不斷流失的高級(jí)研究人員與他們分享了一切。在我們阻止這種流失之前,保密是沒有意義的。

          最終,OpenAI并不重要。他們?cè)陂_源方面采取的立場(chǎng)和他們保持優(yōu)勢(shì)的能力都值得質(zhì)疑,這些都是我們所犯的同樣錯(cuò)誤。除非他們改變立場(chǎng),否則開源替代品最終將超越他們。至少在這方面,我們可以率先采取行動(dòng)。


          作者:BigYe程普
          鏈接:https://juejin.cn/post/7229593695653314597
          來源:稀土掘金
          著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請(qǐng)聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請(qǐng)注明出處。


          瀏覽 51
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产成人毛片18女人18精品 | 正在播放精品 | 熟女老阿V8888AV | 国产精品第一操逼视频 | 北条麻妃被躁57分钟视频在线 |