開源Llama 3.1一夜成最強大模型!超越閉源GPT-4o,OpenAI坐不住了
共 1847字,需瀏覽 4分鐘
·
2024-07-24 16:00
大數(shù)據(jù)文摘受權(quán)轉(zhuǎn)載自夕小瑤科技說
作者 | 海野
萬眾期待的開源模型Llama3.1終于走官方渠道上線了。
我們昨天已經(jīng)領(lǐng)略過Llama3.1(偷跑版的)威名:
Llama3.1共包含8b、70b和405b三種模型,它們都有驚人的128k最大上下文。究其性能,405b模型在通識、數(shù)學(xué)、翻譯等一系列方面,都能小壓GPT-4o一頭,與Claude 3.5 sonnet不分伯仲。
要知道,GPT-4o和Claude3.5都是閉源模型啊!而Llama3.1宣傳的核心就是:開源,開源,還是開源!
正如Meta的CEO扎爾伯格致辭所述:
開源是AI前進的方向。
我們相信,開源將確保世界上更多的人,能領(lǐng)略使用人工智能的優(yōu)勢和機會,權(quán)力將不會集中在少數(shù)人手中,并且人工智能技術(shù)可以在社會中更公平、更安全地落地。這就是為什么我們一直致力于開源,讓開源人工智能成為行業(yè)標桿。
這里我真的很想cue一下OpenAI:你們還是趕緊把名字改成CloseAI吧!
AI大神Andrej Karpathy對Llama3.1贊不絕口,他很喜歡扎爾伯格的開源AI生態(tài)設(shè)想,接下來會針對Llama3.1模型的微調(diào)做一些視頻。
Yann Lecun也對Llama3.1進行了夸贊:Meta AI正迅速成為使用最廣泛的AI助手。
戰(zhàn)火升級:OpenAI提供免費的gpt-4o Mini微調(diào)
而這時候,OpenAI終于沉不住氣了……
就在Llama3.1遭泄露后,OpenAI發(fā)布了一則推文,講述他們?nèi)绾螢锳I安全付諸努力。
也許這篇推文本身與Llama沒有關(guān)聯(lián),它發(fā)布的時間也只是“恰好”與Llama3.1發(fā)布撞車了。但我們回看過去,在其他大廠的AI模型發(fā)布重大更新的前一天,OpenAI總會橫插一腳發(fā)布ChatGPT的新版本。
這次有網(wǎng)友猜測:OpenAI也許是在嘲諷開源模型安全性的問題。
更有意思的是,OpenAI的這篇推文,在評論區(qū)迎來了一片罵聲:我們需要你創(chuàng)新AI,而不是監(jiān)管AI。
而針對Llama3.1發(fā)布,OpenAI又采取了另一種手段:
在9月23日前,OpenAI向tier4和tier5用戶提供2m個免費tokens,來使用定制的GPT-4o mini。這個福利預(yù)計會逐步擴大到所有用戶都能享受。
但是評論區(qū)又出現(xiàn)了戲劇化的一幕:
有一位網(wǎng)友分享了自己微調(diào)后的Llama3.1 8b模型測試,吊打GPT-4o mini。
這下,這篇推文換來的也是一片嘲聲了。
話說回來,在昨天疑似Meta員工的賬號泄露Llama3.1模型后,有沒有跟我一樣,就是覺得:
員工手誤提前一天泄露了Llama3.1,也是Meta宣傳手段的一環(huán)的呢?(劃掉)
不過這也有可能是防止搶熱度的反制手段。如果OpenAI搶在Llama3.1前一天公布新的AI,Meta可以通過這種偷跑的方式,防止OpenAI背刺。
現(xiàn)在我們來看,Llama3.1無疑是從技術(shù)層面,還是宣傳層面,都取得了成功。
作為一個頂尖開源模型,它代表著世界上更多的人會有更多的機會,去深耕,去探索世界,去融匯知識,利用開源AI,我們可以將人工智能帶來的福利,傳遞給世界上每個人。不止極客,不止你我,而是全社會。
