<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          斯坦福AI抄襲清華,作者“失聯(lián)跑路”

          共 4364字,需瀏覽 9分鐘

           ·

          2024-06-04 22:01

          ??掃碼免費申請開發(fā)板??


          斯坦福AI團隊主導的 Llama3-V 開源模型被證實套殼抄襲國內(nèi)清華&面壁智能的開源模型“小鋼炮”MiniCPM-Llama3-V 2.5一事,在網(wǎng)絡和媒體上引發(fā)熱議。

          近日,斯坦福AI團隊主導的 Llama3-V 開源模型被證實套殼抄襲國內(nèi)清華&面壁智能的開源模型“小鋼炮”MiniCPM-Llama3-V 2.5一事,在網(wǎng)絡和媒體上引發(fā)熱議。

          被網(wǎng)友質(zhì)疑抄襲,面壁智能團隊進一步驗證

          事件起源于5月29日,一個斯坦福AI 團隊在網(wǎng)絡上高調(diào)宣傳,只需500美元就可訓練出一個超越GPT-4V 的 SOTA 多模態(tài)大模型。該模型發(fā)布的推特帖子瀏覽量很快就超過了30萬,轉(zhuǎn)發(fā)300+次,并迅速沖到了 Hugging Face 首頁。

          隨后,推特與 Hugging Face 上就開始出現(xiàn)懷疑的聲音,網(wǎng)友質(zhì)疑 Llama3V 套殼了面壁智能在5月中旬發(fā)布的8B 多模態(tài)小模型 MiniCPM-Llama3-V 2.5,且沒有在 Llama3V 的工作中表達任何“致敬”或“感謝”MiniCPM-Llama3-V 2.5 的聲音。對此,Llama3V 團隊回復稱他們“只是使用了 MiniCPM-Llama3-V 2.5 的 tokenizer”,并宣稱“在 MiniCPM-Llama3-V 2.5 發(fā)布前就開始了這項工作”。

          之后,有網(wǎng)友在 Llama3V 的 Github 項目下拋出事實性質(zhì)疑,但很快被 Llama3V 的團隊刪除。為此,提出質(zhì)疑的網(wǎng)友跑到了 MiniCPM-V 的 Github 頁面進行事件還原,提醒面壁智能團隊關(guān)注此事。


          隨著事件逐漸發(fā)酵,面壁智能團隊也就此事展開了調(diào)查。

          面壁智能首席科學家、清華大學長聘副教授劉知遠給出的判斷Llama3-V是MiniCPM-Llama3-V 2.5套殼。


          而實錘Llama3-V 開源模型抄襲MiniCPM-Llama3-V 2.5的最有力證據(jù),正是對于清華簡的識別能力。


          據(jù)稱,這是MiniCPM-Llama3-V 2.5的“彩蛋”能力,是他們用了從清華簡逐字掃描并標注的數(shù)據(jù)集訓練的,并未公開。而Llama3-V的表現(xiàn)和MiniCPM-Llama3-V 2.5一模一樣,不僅做對的題一樣,出錯的地方都一樣。

          此外,有網(wǎng)友研究后發(fā)現(xiàn),Llama3-V幾乎每一層的權(quán)重差值都符合均值為0、標準差為1.4e-3的高斯分布。


          于是推測,Llama3-V只是直接在MiniCPM的權(quán)重上添加了低方差噪聲。

          斯坦福Llama3-V團隊道歉,作者“失聯(lián)跑路”

          今早北京時間凌晨1點27分,斯坦福Llama3-V團隊的兩位作者Siddharth Sharma和 Aksh Garg在社交平臺上就這一學術(shù)不端行為向面壁MiniCPM團隊正式道歉,并表示會將Llama3-V模型悉數(shù)撤下。


          Aksh Garg表示,“首先,我們要向MiniCPM原作者道歉。我、Siddharth Sharma,以及Mustafa一起發(fā)布了Llama3-V,Mustafa為這個項目編寫了代碼,但從昨天起就無法聯(lián)系他。我與Siddharth Sharma主要負責幫助Mustafa進行模型推廣。我們倆查看了最新的論文,以驗證這項工作的新穎性,但并未被告知或意識到OpenBMB(清華團隊支持發(fā)起的大規(guī)模預訓練語言模型庫與相關(guān)工具)之前的任何工作。我們向作者道歉,并對自己沒有努力驗證這項工作的原創(chuàng)性感到失望。我們對所發(fā)生的事情承擔全部責任,并已撤下Llama3-V,再次致歉。”

          而被指“失聯(lián)”的Mustafa X主頁目前已經(jīng)開啟保護鎖定狀態(tài),申請才能關(guān)注。


          另外,斯坦福人工智能實驗室主任Christopher David Manning也發(fā)文譴責這一抄襲行為,并對MiniCPM這一中國開源模型表示贊揚。


          從nobody悄然成長為關(guān)鍵推動者

          MiniCPM-Llama3-V 2.5是由面壁智能和清華大學自然語言處理實驗室聯(lián)合推出的, 它具有以下特點:

          8B 參數(shù)量:這個模型擁有8億參數(shù),這使得它在處理復雜任務時表現(xiàn)出色。
          多模態(tài)能力:MiniCPM-Llama3-V 2.5 能夠接受圖像和文本輸入,并提供高質(zhì)量的文本輸出。
          OCR 能力:模型增強了光學字符識別(OCR)能力,能夠接受高達180萬像素的任意寬高比圖像輸入,并在OCRBench上得分達到725,超越了其他商用閉源模型。
          多語言支持:支持30多種語言,包括英語、中文、法語、西班牙語、德語等,展現(xiàn)出良好的多語言多模態(tài)對話性能。
          高效部署:通過模型量化、CPU、NPU、編譯優(yōu)化等高效加速技術(shù),實現(xiàn)了高效的終端設備部署。它在多模態(tài)大模型評測基準的OpenCompass榜單上平均得分65.1,超過了GPT-4V-1106、Gemini Pro、Claude 3、Qwen-VL-Max等主流商用閉源多模態(tài)大模型。

          盡管中國在AI大模型的研發(fā)上起步稍晚,但其發(fā)展速度卻異常迅猛。目前,國內(nèi)涌現(xiàn)出了一批知名的AI大模型企業(yè),它們分別是通義千問、Yi、OpenBMB 、DeepSeek、Yuan、WizardLM、ChatGLM、CogVLM、Baichuan、InternLM、Skywork、HunyunDiT等等,這些企業(yè)都在各自的領域取得了顯著的成就。

          在視覺大模型的競賽中,零一萬物的Yi-VL-Plus模型脫穎而出,以優(yōu)異的成績位列第五,甚至超越了谷歌的Gemini Pro Vision。同時,智譜AI與清華合作的CogVLM也成功躋身前十,充分展示了中國在視覺AI領域的強大實力。

          而在更具權(quán)威性的LMSYS Chatbot Arena Leaderboard競技場榜單中,中國的大模型也在不斷刷新“最強開源”的紀錄,這進一步證明了中國在AI大模型技術(shù)領域的領先地位。

          值得一提的是,中國的大模型不僅在技術(shù)上取得了突破,更在實際應用中展現(xiàn)出了強大的通用性和跨領域能力。例如,上海人工智能實驗室研發(fā)的書生浦語開源大模型,憑借其70億參數(shù)的輕量級版本和200億參數(shù)的中量級版本,在多個領域都表現(xiàn)出了卓越的性能,這為中國在AI大模型的應用落地方面樹立了新的標桿。

          此外,中國在算力方面也具備堅實的基礎。盡管與美國相比,中國現(xiàn)有的算力總規(guī)模仍有一定差距,但在以GPU和NPU為主的智能算力規(guī)模上,中國已經(jīng)明顯超越美國。這一優(yōu)勢為中國大模型的訓練提供了強有力的支持,使得中國在AI大模型領域的發(fā)展更加迅速。

          劉知遠也表示,從橫向來看,我們顯然仍與國際頂尖工作如Sora和GPT-4o有顯著差距;同時,從縱向來看,我們已經(jīng)從十幾年前的nobody,快速成長為人工智能科技創(chuàng)新的關(guān)鍵推動者。

          面壁智能:知錯能改,善莫大焉

          面壁智能CEO李大海表示,“我們對這件事深表遺憾。一方面感慨這也是一種受到國際團隊認可的方式,另一方面呼吁大家共建開放、合作、有信任的社區(qū)環(huán)境?!薄拔覀兿M麍F隊的好工作被更多人關(guān)注與認可,但不是以這種方式?!?/span>

          面壁智能首席科學家、清華大學長聘副教授劉知遠表示,人工智能的飛速發(fā)展離不開全球算法、數(shù)據(jù)與模型的開源共享,讓人們始終可以站在SOTA的肩上持續(xù)前進。面壁開源的MiniCPM-Llama3-V 2.5 就用了最新的Llama3作為語言模型基座。而開源共享的基石是對開源協(xié)議的遵守,對其他貢獻者的信任,對前人成果的尊重和致敬,Llama3-V團隊無疑嚴重破壞了這一點。他們在受到質(zhì)疑后已在Huggingface刪庫,該團隊三人中的兩位也只是斯坦福大學本科生,未來還有很長的路,如果知錯能改,善莫大焉。

          北京面壁智能科技有限責任公司成立于2022年8月,今年4月,面壁智能完成新一輪數(shù)億元融資,由華為哈勃領投,春華創(chuàng)投、北京市人工智能產(chǎn)業(yè)投資基金等跟投,知乎作為戰(zhàn)略股東持續(xù)跟投支持。今年2月,面壁智能發(fā)布開源模型MiniCPM后,又推出MiniCPM 2系列端側(cè)模型。李大海表示,推動大模型在端側(cè)的落地是面壁目前的重點工作之一。



          熱點文章推薦

          瀏覽 315
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  97久久久久久久 | 激情国产在线观看 | 高清无码手机在线 | 亚洲天堂AV在线观看 | 国产色欲一区二区精品 |