<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          GPT-4強到離譜,OpenAI拒絕Open!首席科學家:開源并不明智,我...

          共 3913字,需瀏覽 8分鐘

           ·

          2023-03-21 18:08

          b94153a05c653c062f1ae4dc82fbaf5f.webp


          ?? 新智元報道??

          編輯:Britta 好困
          【新智元導讀】OpenAI的聯(lián)合創(chuàng)始人Greg Brockman和首席科學家Ilya Sutskever評價GPT-4的性能,并對安全問題和開源的爭議進行解釋。

          毫無疑問,GPT-4一經發(fā)布,就引爆了整個業(yè)界和學界。 憑借著自己強大的推理和多模態(tài)能力,引發(fā)了一眾熱議。 然鵝,GPT-4不是一個open的模型。

          587a844ae209670d16d47fb9d2abe453.webp

          雖然OpenAI分享了大量GPT-4的基準和測試結果,但是基本上沒有提供用于訓練的數(shù)據(jù)、成本、或者用于創(chuàng)建模型的方法。 當然了,這樣的「獨家秘笈」OpenAI肯定不會公布了。
          馬庫斯直接拿出當初OpenAI的初衷,發(fā)文嘲諷了一波。
          954e4c7952bd3c855a122aeda0402296.webp網(wǎng)友改進了一個版本。7fa9a9a1a36ff5065e445a68a80f8937.webp cebaaf2476b8090cc9197d97b8eebb92.webp

          人無完人,GPT-4也是


          當OpenAI的總裁、聯(lián)合創(chuàng)始人之一Greg Brockman將GPT-4和GPT-3進行比較時,他說了一個詞——不同。 「它只是不同而已,模型仍然有很多問題和錯誤......但你真的可以看到它在微積分或法律等方面的技能提升。在某些領域,它從表現(xiàn)非常糟糕進化到現(xiàn)在足以匹敵人類。」 90ea2ab96be73c2ca3bb73f5440b7a90.webpGPT-4的測試結果很不錯:在AP微積分BC考試中,GPT-4得了4分,而GPT-3得了1分。在模擬的律師考試中,GPT-4以大約前10%考生的分數(shù)通過;GPT-3.5的分數(shù)徘徊在后10%。 在上下文能力,也就是說在生成文本之前可以記憶的文本方面,GPT-4大約能夠記住50頁左右的內容,是GPT-3的8倍。 在提示方面,GPT-3和GPT-3.5只能接受文字提示:「寫一篇關于長頸鹿的文章」,而多模態(tài)的GPT-4可以接受圖片和文字的提示:給出一張長頸鹿的圖片,提示問「這里有多少只長頸鹿?」 這些GPT-4都能答對,而且它的讀梗能力也很強!

          我們之前錯了,開源并不明智


          而強到離譜的GPT-4一發(fā)布,便引起了大量研究人員和專家的興趣。但令人失望的是,OpenAI發(fā)布的GPT-4,不是「Open的AI模型。」 盡管OpenAI分享了大量GPT-4的基準、測試結果和有趣的演示,但基本上沒有提供用于訓練該系統(tǒng)的數(shù)據(jù)、能源成本或用于創(chuàng)建它的具體硬件或方法的相關信息。 之前Meta的LLaMa模型泄露的時候,就引發(fā)過一波關于開源的討論。不過,這次大家對于GPT-4封閉模型的最初反應是大部分都是負面的。 6dbe329258e9b6a2f1bc6523b1dac24b.webp人工智能社區(qū)普遍認為,這不僅破壞了OpenAI作為研究機構的創(chuàng)始精神,而且讓其他人難以制定保障措施來應對威脅。 Nomic AI的信息設計副總裁Ben Schmidt表示,由于無法看到GPT-4是在什么數(shù)據(jù)上訓練的,大家很難知道該系統(tǒng)在什么地方是安全使用的,并提出修復方案。 「為了讓人們知道這個模型什么地方不起作用,OpenAI需要更好地了解GPT-4所做的事情以及其中的假設。我可不會在下雪的時候,相信一個沒有在雪地氣候情況下訓練出來的自動駕駛汽車。因為很可能,漏洞和問題只在真實使用的時候才會浮現(xiàn)。」 對此,OpenAI的首席科學家兼聯(lián)合創(chuàng)始人Ilya Sutskever解釋稱:OpenAI不分享更多關于GPT-4的信息是因為害怕競爭,也是因為對安全的擔憂,這一點是毋庸置疑的。 「外面的競爭很激烈,GPT-4的開發(fā)并不容易。幾乎所有的OpenAI的員工在一起工作了很長時間才生產出這個東西。從競爭的角度來看,有很多很多公司都想做同樣的事情,而GPT-4像是一個成熟的果實。」 57373eab35dd4faeff31c010a2106c7e.webp 眾所周知,OpenAI在2015年成立之初是一個非營利組織。其創(chuàng)始人包括Sutskever、現(xiàn)任首席執(zhí)行官Sam Altman、總裁Greg Brockman以及現(xiàn)已離開OpenAI的馬斯克。 Sutskever等人曾表示,該組織的目標是為每個人創(chuàng)造價值,而不是單單為股東創(chuàng)造價值,并表示將與該領域的各方進行「自由合作」。 然而,為了獲得數(shù)十億美元的投資(主要來自微軟),OpenAI還是被加蓋了一層商業(yè)屬性。 不過,當被問及為什么OpenAI改變了分享其研究的方法時,Sutskever簡單地回答道:
          「我們錯了。在某個時候,AI/AGI將變得極其強大,那時,開源就是沒有意義的。可以預料的是,在幾年內,每個人都會完全明白,開源人工智能是不明智的。因為這個模型是非常有力的。如果有人想,用它就能夠造成巨大的傷害,這將是相當容易的。所以隨著模型的能力越來越高,不想披露它們是有道理的。」 Lightning AI的首席執(zhí)行官和開源工具PyTorch Lightning的創(chuàng)建者William Falcon從商業(yè)角度解讀稱:「作為一家公司,你完全有權利這樣做。」

          安全風險


          與此同時,Brockman也認為GPT-4的應用推廣應當是緩慢推進的,因為OpenAI正在評估風險和利益。 「我們需要解決一些政策問題,如面部識別和如何對待人的圖像,我們需要弄清楚,危險區(qū)在哪里,紅線在哪里,然后慢慢澄清這些點。」 還有就是老生常談的,GPT-4被用來干壞事的風險。 以色列網(wǎng)絡安全初創(chuàng)公司Adversa AI發(fā)表了一篇博文,展示了繞過OpenAI的內容過濾器,讓GPT-4生成釣魚郵件、生成對同性戀者的攻擊性描述等讓人高度反感的文本的方法。 因此,很多人都希望GPT-4在審核方面帶來重大改進。 b3883eb5dc17a9297faa0ae7a6c2d97a.webp針對這一點,Brockman強調,他們花了很多時間試圖了解GPT-4的能力,而該模型已經經歷了六個月的安全培訓。在內部測試中,對于OpenAI的使用政策所不允許的內容,GPT-4作出反應的可能性比GPT-3.5低82%,產生「事實性」反應的可能性高40%。 不過,Brockman并不否認GPT-4在這方面的不足。但他強調了該模型的新的緩和導向工具,稱為「系統(tǒng)信息」的API級能力。 系統(tǒng)信息本質上是為GPT-4的互動設定基調,并建立界限的指令。這樣,以系統(tǒng)信息作為護欄,就可以防止GPT-4偏離方向。 例如,一條系統(tǒng)信息的人設可能是這樣的:「你是一個總是以蘇格拉底方式回答問題的導師。你從不給學生答案,而是總是試圖提出正確的問題,幫助他們學會自己思考。」

          新的道路


          其實,從一定程度上,Sutskever也認同批評者的觀點:「如果更多的人愿意研究這些模型,我們會對它們有更多的了解,這將是好事。」 所以OpenAI出于這些原因,向某些學術和研究機構提供了訪問其系統(tǒng)的機會。 而且Brockman還提到了Evals,這是OpenAI新近開源的軟件框架,用于評估其人工智能模型的性能。 Evals采用的是模型測試眾包的方式,讓用戶開發(fā)和運行評估GPT-4等模型的基準,同時檢查其性能,這也是OpenAI致力于「健全」模型的標志之一。 「通過Evals,我們可以看到用戶關心的用例,能夠以一種系統(tǒng)的形式進行測試。我們開源的部分原因是,我們正在從每三個月發(fā)布一個新模型轉向不斷改進新模型。當我們制作新的模型版本時,我們至少可以通過開源知道這些變化是什么。」 其實,關于共享研究的討論一直頗為火熱。一方面,谷歌和微軟這樣的科技巨頭正急于將人工智能功能添加到他們的產品中,往往會將以前的道德問題擱置一邊,微軟最近就解雇了一個團隊,該團隊是專門確保人工智能產品遵循道德準則的);另一方面;技術的迅速改善引發(fā)了人們對人工智能的擔憂。 b6979263785413d0236b0b8282504b1f.webp
          英國人工智能政策負責人 Jess Whittlestone 說,平衡這些不同的壓力帶來了嚴重的治理挑戰(zhàn),這意味著我們可能需要第三方監(jiān)管機構參與。 「OpenAI 不分享關于 GPT-4 的更多細節(jié)的出發(fā)點是好的,但也可能導致人工智能世界的權力集中化。這些決定不應該由個別公司來做。」 Whittlestone 說:「理想的情況是,我們需要把這里的做法編纂成冊,然后讓獨立的第三方去審查與某些模型相關的風險。」 參考資料: https://techcrunch.com/2023/03/15/interview-with-openais-greg-brockman-gpt-4-isnt-perfect-but-neither-are-you/ https://www.theverge.com/2023/3/15/23640180/openai-gpt-4-launch-closed-research-ilya-sutskever-interview


          85a5b86648fda2af41a4797790f00f60.webp
          f2465a951ff7ad7e8cb4477252366f6e.webp
          瀏覽 51
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚洲手机在线视频播放 | 爱情岛一区二区三区 | 一级a一级a爱片免费免免高潮 | 黄片乱伦视频 | 精品少妇无码中文字幕在线 |