<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          AI大模型開源與閉源

          共 8679字,需瀏覽 18分鐘

           ·

          2024-06-24 11:00

          向AI轉(zhuǎn)型的程序員都關(guān)注公眾號(hào) 機(jī)器學(xué)習(xí)AI算法工程


          文章目錄

          開源大模型

          GPT-3(OpenAI)

          BERT(Google)

          T5(Google)

          GPT-Neo和GPT-J(EleutherAI)

          BLOOM(BigScience)

          優(yōu)勢

          挑戰(zhàn)


          閉源大模型

          GPT-4(OpenAI)

          Bard(Google)

          LaMDA(Google)

          Claude(Anthropic)

          MUM(Google)

          優(yōu)勢

          挑戰(zhàn)


          開源大模型與閉源大模型,你更看好哪一方?

          數(shù)據(jù)隱私

          商業(yè)應(yīng)用

          社區(qū)參與

          結(jié)論


          首先我們還是對(duì) 大模型以及開源閉源進(jìn)行一定的分析。

          大模型是指具有大規(guī)模參數(shù)和復(fù)雜計(jì)算結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型。通常基于深度學(xué)習(xí)技術(shù)。這些模型在AI的發(fā)展中起到了至關(guān)重要的作用,尤其是在自然語言處理(NLP)、計(jì)算機(jī)視覺和語音識(shí)別等領(lǐng)域。

          以下是開源大模型和閉源大模型的基本簡介。


          開源大模型

          開源大模型近年來在人工智能領(lǐng)域取得了顯著的進(jìn)展,許多開源大模型在學(xué)術(shù)研究、工業(yè)應(yīng)用和社區(qū)創(chuàng)新中發(fā)揮了重要作用。以下是幾個(gè)著名的開源大模型的介紹:


          GPT-3(OpenAI)

          GPT-3(Generative Pre-trained Transformer 3)是OpenAI發(fā)布的一個(gè)大規(guī)模預(yù)訓(xùn)練語言模型。盡管GPT-3本身不是完全開源的,但OpenAI提供了API,使得開發(fā)者可以訪問和使用該模型。它是基于Transformer架構(gòu),擁有1750億參數(shù),是目前最大的語言模型之一。


          特點(diǎn)

          生成能力:GPT-3在生成自然語言文本方面表現(xiàn)出色,可以生成具有連貫性和上下文相關(guān)的段落。

          多用途:GPT-3可以用于多種任務(wù),如翻譯、問答、摘要生成、對(duì)話系統(tǒng)等。

          少量樣本學(xué)習(xí):GPT-3在少量樣本情況下也能表現(xiàn)出良好的效果,這使得它在實(shí)際應(yīng)用中非常靈活。

          應(yīng)用場景


          企業(yè)應(yīng)用:GPT-3通過OpenAI API幫助企業(yè)自動(dòng)化內(nèi)容生成、客戶支持和市場營銷文案。例如,自動(dòng)生成產(chǎn)品描述、撰寫營銷郵件和創(chuàng)建社交媒體內(nèi)容。

          開發(fā)工具:開發(fā)者可以利用GPT-3 API在應(yīng)用中集成智能助手、對(duì)話系統(tǒng)和自動(dòng)化客服機(jī)器人,提高用戶體驗(yàn)和效率。

          BERT(Google)

          簡介

          BERT(Bidirectional Encoder Representations from Transformers)是Google發(fā)布的一個(gè)開創(chuàng)性語言模型。它的出現(xiàn)引領(lǐng)了自然語言處理領(lǐng)域的重大突破。BERT的源代碼和預(yù)訓(xùn)練模型都在GitHub上開源。

          特點(diǎn)

          雙向編碼:BERT使用雙向Transformer進(jìn)行編碼,這使得模型在理解句子上下文時(shí)更加準(zhǔn)確。

          預(yù)訓(xùn)練和微調(diào):BERT通過在大規(guī)模語料上預(yù)訓(xùn)練,然后在特定任務(wù)上微調(diào),從而實(shí)現(xiàn)了卓越的性能。

          廣泛應(yīng)用:BERT在許多自然語言處理任務(wù)中表現(xiàn)出色,如問答、命名實(shí)體識(shí)別、情感分析等。

          應(yīng)用場景

          自然語言理解:BERT被廣泛應(yīng)用于自然語言處理任務(wù),如情感分析、命名實(shí)體識(shí)別和文本分類。例如,分析社交媒體上的情感趨勢、識(shí)別新聞中的關(guān)鍵實(shí)體和自動(dòng)分類客戶反饋。

          搜索引擎優(yōu)化:BERT改進(jìn)搜索引擎的查詢理解能力,提高搜索結(jié)果的相關(guān)性和準(zhǔn)確性。它被用于Google搜索引擎中,幫助理解復(fù)雜的搜索查詢并提供更相關(guān)的結(jié)果。

          T5(Google)

          簡介

          T5(Text-To-Text Transfer Transformer)是Google提出的一種統(tǒng)一的文本到文本框架模型。T5的設(shè)計(jì)理念是將所有的自然語言處理任務(wù)轉(zhuǎn)化為文本到文本的形式。T5的代碼和預(yù)訓(xùn)練模型也是開源的。


          特點(diǎn)

          統(tǒng)一框架:T5將不同的任務(wù)(如翻譯、摘要、分類)統(tǒng)一為文本生成問題,這使得模型架構(gòu)更加簡潔。

          大規(guī)模預(yù)訓(xùn)練:T5在大規(guī)模文本數(shù)據(jù)上進(jìn)行了預(yù)訓(xùn)練,具有強(qiáng)大的生成和理解能力。

          靈活性:由于其統(tǒng)一的框架,T5可以很容易地適應(yīng)各種自然語言處理任務(wù)。

          應(yīng)用場景

          翻譯和摘要:T5在翻譯和文本摘要生成方面表現(xiàn)出色,應(yīng)用于自動(dòng)翻譯文檔、生成新聞?wù)吞崛£P(guān)鍵信息。例如,幫助企業(yè)自動(dòng)翻譯技術(shù)文檔,生成簡潔的新聞?wù)阌诳焖匍喿x。

          問答系統(tǒng):T5被用于構(gòu)建智能問答系統(tǒng),如企業(yè)內(nèi)部知識(shí)庫問答、在線客服機(jī)器人和教育領(lǐng)域的智能輔導(dǎo)工具,提供準(zhǔn)確和高效的問答服務(wù)。

          GPT-Neo和GPT-J(EleutherAI)

          簡介

          GPT-Neo和GPT-J是由EleutherAI開發(fā)的開源大規(guī)模語言模型,旨在提供與GPT-3相當(dāng)?shù)拈_源替代品。GPT-Neo和GPT-J的源代碼和預(yù)訓(xùn)練模型都公開發(fā)布,供社區(qū)使用和改進(jìn)。


          特點(diǎn)

          高可用性:作為開源項(xiàng)目,任何人都可以訪問和使用這些模型。

          大規(guī)模:GPT-J擁有60億參數(shù),是當(dāng)前最大的開源語言模型之一。

          社區(qū)驅(qū)動(dòng):EleutherAI的模型開發(fā)依賴于社區(qū)的貢獻(xiàn)和合作,促進(jìn)了快速的迭代和創(chuàng)新。

          應(yīng)用場景

          教育和研究:GPT-Neo和GPT-J被廣泛應(yīng)用于教育和研究領(lǐng)域,幫助學(xué)生和研究人員生成報(bào)告、撰寫論文和進(jìn)行數(shù)據(jù)分析。例如,生成科研報(bào)告的初稿,提供論文寫作輔助和自動(dòng)化數(shù)據(jù)摘要。

          內(nèi)容創(chuàng)作:這些模型被用于自動(dòng)化內(nèi)容創(chuàng)作,如博客文章、故事創(chuàng)作和劇本寫作,幫助創(chuàng)作者提高生產(chǎn)效率和創(chuàng)意表達(dá)。


          BLOOM(BigScience)

          簡介

          BLOOM(BigScience Large Open-science Open-access Multilingual Language Model)是由BigScience項(xiàng)目發(fā)布的一個(gè)大規(guī)模多語言模型。BLOOM的開發(fā)集中了來自全球研究者的合作力量。

          特點(diǎn)

          多語言支持:BLOOM支持?jǐn)?shù)十種語言,具有強(qiáng)大的跨語言理解和生成能力。

          社區(qū)合作:BLOOM的開發(fā)過程透明,依賴于全球研究社區(qū)的合作。

          開源和開放訪問:BLOOM的源代碼和模型權(quán)重公開發(fā)布,供研究和應(yīng)用使用。

          應(yīng)用場景

          跨語言應(yīng)用:BLOOM的多語言支持能力使其在跨語言翻譯和多語言對(duì)話系統(tǒng)中具有廣泛應(yīng)用。例如,構(gòu)建支持多語言的全球客服系統(tǒng),自動(dòng)翻譯和本地化內(nèi)容,促進(jìn)國際交流和合作。

          學(xué)術(shù)研究:BLOOM為學(xué)術(shù)研究提供了強(qiáng)大的工具,支持多語言語料庫分析、跨文化研究和全球知識(shí)共享。例如,研究人員使用BLOOM分析多語言數(shù)據(jù)集,進(jìn)行跨文化對(duì)比研究,推動(dòng)全球化研究進(jìn)展。

          這些開源大模型在推動(dòng)人工智能技術(shù)進(jìn)步的同時(shí),也為研究人員和開發(fā)者提供了豐富的資源和工具,使得更多的人能夠參與到AI技術(shù)的創(chuàng)新和應(yīng)用中。


          優(yōu)勢

          社區(qū)驅(qū)動(dòng)的創(chuàng)新

          開源項(xiàng)目可以吸引全球開發(fā)者和研究人員的參與,促進(jìn)快速迭代和創(chuàng)新。

          通過集體智慧,問題可以更快地被發(fā)現(xiàn)和解決。

          透明性和可驗(yàn)證性

          開源代碼可以被任何人審查,從而提高了透明性和可信度。

          用戶可以對(duì)代碼進(jìn)行獨(dú)立驗(yàn)證,確保沒有隱藏的漏洞或后門。

          教育和研究

          開源項(xiàng)目為學(xué)術(shù)研究和教育提供了寶貴的資源,使得更多的人能夠?qū)W習(xí)和使用先進(jìn)的技術(shù)。

          研究人員可以基于開源項(xiàng)目進(jìn)行進(jìn)一步的創(chuàng)新和實(shí)驗(yàn)。

          成本效益

          開源軟件通常免費(fèi),降低了開發(fā)者和企業(yè)的進(jìn)入門檻。

          挑戰(zhàn)

          資源和資金

          開源項(xiàng)目可能面臨資金和資源不足的問題,特別是在需要大量計(jì)算資源的AI領(lǐng)域。

          依賴社區(qū)貢獻(xiàn),項(xiàng)目的持續(xù)性和穩(wěn)定性可能受到影響。

          商業(yè)化困難

          盡管可以通過服務(wù)和支持等方式商業(yè)化,但與直接銷售軟件許可證相比,開源項(xiàng)目的商業(yè)化模式可能更復(fù)雜。

          閉源大模型

          閉源大模型主要由一些大型科技公司開發(fā)和維護(hù),雖然這些模型的代碼和訓(xùn)練數(shù)據(jù)并未公開,但它們在各種應(yīng)用場景中表現(xiàn)出了卓越的性能,并且通常通過API或商業(yè)化產(chǎn)品提供給用戶。以下是幾個(gè)著名的閉源大模型的介紹:


          GPT-4(OpenAI)

          簡介

          GPT-4 是OpenAI發(fā)布的最新一代大規(guī)模語言模型,繼承了GPT-3的強(qiáng)大性能,但在很多方面進(jìn)行了改進(jìn)和增強(qiáng)。雖然模型本身是閉源的,但OpenAI通過API和合作伙伴關(guān)系提供了廣泛的訪問和應(yīng)用。


          特點(diǎn)

          性能提升:相比GPT-3,GPT-4在自然語言理解和生成方面表現(xiàn)得更為優(yōu)異。

          多模態(tài)支持:GPT-4不僅支持文本,還可以處理圖像等其他類型的數(shù)據(jù)(取決于具體版本)。

          應(yīng)用廣泛:GPT-4在對(duì)話系統(tǒng)、內(nèi)容生成、代碼編寫、翻譯等多個(gè)領(lǐng)域都有出色表現(xiàn)。

          應(yīng)用場景

          企業(yè)應(yīng)用:GPT-4被用于增強(qiáng)客戶服務(wù)、自動(dòng)化文檔生成、數(shù)據(jù)分析等。

          開發(fā)工具:通過OpenAI API,開發(fā)者可以將GPT-4集成到各種應(yīng)用中,例如智能助手和內(nèi)容管理系統(tǒng)。

          Bard(Google)

          簡介

          Bard 是Google推出的高級(jí)對(duì)話AI模型,專注于提供自然流暢的對(duì)話體驗(yàn)。Bard整合了Google在自然語言處理和機(jī)器學(xué)習(xí)方面的最新進(jìn)展,盡管模型和訓(xùn)練數(shù)據(jù)閉源,但通過Google的服務(wù)可以訪問。


          特點(diǎn)

          上下文理解:Bard具備深度上下文理解能力,可以進(jìn)行長時(shí)間連貫對(duì)話。

          多輪對(duì)話:能夠處理復(fù)雜的多輪對(duì)話,提供詳細(xì)和相關(guān)的回答。

          集成服務(wù):與Google搜索、地圖、日歷等服務(wù)無縫集成,提供更為實(shí)用的對(duì)話體驗(yàn)。

          應(yīng)用場景

          個(gè)人助理:Bard用于智能手機(jī)助手、智能音箱等設(shè)備,為用戶提供日常幫助。

          客戶支持:幫助企業(yè)提升客戶服務(wù)效率,提供快速、準(zhǔn)確的自動(dòng)化回復(fù)。


          LaMDA(Google)

          簡介

          LaMDA(Language Model for Dialogue Applications)是Google專為對(duì)話設(shè)計(jì)的大型語言模型,旨在提供更為自然和有意義的對(duì)話體驗(yàn)。盡管LaMDA是閉源的,但它在多個(gè)Google產(chǎn)品中得到了應(yīng)用。

          特點(diǎn)

          對(duì)話優(yōu)化:LaMDA專門為對(duì)話優(yōu)化,具備理解和生成自然對(duì)話的能力。

          上下文保持:能夠在長時(shí)間對(duì)話中保持上下文一致性,使得對(duì)話更加流暢。

          多領(lǐng)域知識(shí):具備廣泛的知識(shí)覆蓋,可以處理各種話題的對(duì)話。

          應(yīng)用場景

          對(duì)話系統(tǒng):用于智能聊天機(jī)器人、虛擬助理等系統(tǒng),提升用戶互動(dòng)體驗(yàn)。

          客戶服務(wù):在企業(yè)客戶服務(wù)中,提供自動(dòng)化和智能化的對(duì)話解決方案。


          Claude(Anthropic)

          簡介

          Claude是由Anthropic公司開發(fā)的一種先進(jìn)的對(duì)話AI模型,致力于提供安全且高度可控的對(duì)話體驗(yàn)。盡管Claude是閉源的,但它以其對(duì)安全性和倫理性的關(guān)注而著稱

          特點(diǎn)

          安全性:Claude在設(shè)計(jì)上特別注重對(duì)話的安全和倫理問題,避免有害輸出。

          高可控性:提供了細(xì)粒度的控制選項(xiàng),允許用戶調(diào)整模型的行為和回答方式。

          對(duì)話深度:具備處理復(fù)雜和深入對(duì)話的能力,提供詳細(xì)和有幫助的回答。

          應(yīng)用場景

          敏感環(huán)境:在需要高度安全和倫理考量的環(huán)境中使用,例如醫(yī)療咨詢和法律咨詢。

          客戶支持:用于提供安全且可靠的客戶支持服務(wù),提升用戶信任度。


          MUM(Google)

          簡介

          MUM(Multitask Unified Model)是Google開發(fā)的一種多任務(wù)統(tǒng)一模型,旨在提供超越傳統(tǒng)搜索體驗(yàn)的能力。MUM不僅處理文本,還可以理解和生成圖像、視頻等多種數(shù)據(jù)形式。

          特點(diǎn)

          多任務(wù)處理:MUM能夠同時(shí)處理多種任務(wù),如搜索、問答、翻譯等。

          多模態(tài)支持:支持文本、圖像、視頻等多種數(shù)據(jù)形式的理解和生成。

          高度智能:具備深度理解能力,可以提供更為精確和相關(guān)的搜索結(jié)果。

          應(yīng)用場景

          搜索引擎:提升搜索引擎的智能化水平,提供更為精確和多樣化的搜索結(jié)果。

          信息檢索:在各種信息檢索和數(shù)據(jù)分析任務(wù)中,提供強(qiáng)大的支持。

          這些閉源大模型在各自的應(yīng)用領(lǐng)域中展示了卓越的性能和廣泛的應(yīng)用前景,盡管它們的源代碼和訓(xùn)練數(shù)據(jù)未公開,但通過商業(yè)化產(chǎn)品和服務(wù),它們?nèi)匀粸橛脩籼峁┝藦?qiáng)大的人工智能能力。


          優(yōu)勢

          資源充足:

          閉源項(xiàng)目通常由公司資助,擁有充足的資金和資源進(jìn)行長期開發(fā)和維護(hù)。

          可以雇傭?qū)I(yè)團(tuán)隊(duì)進(jìn)行專注開發(fā),保證產(chǎn)品質(zhì)量和穩(wěn)定性。

          商業(yè)化路徑明確:

          閉源軟件可以通過銷售許可證、訂閱服務(wù)等方式直接盈利,商業(yè)模式清晰。

          數(shù)據(jù)安全和控制:

          公司可以嚴(yán)格控制代碼和數(shù)據(jù)的訪問,確保安全性和隱私保護(hù)。

          一致性和整合性:

          由于開發(fā)由一個(gè)團(tuán)隊(duì)或公司負(fù)責(zé),閉源軟件在設(shè)計(jì)和實(shí)現(xiàn)上更容易保持一致性和整合性。

          挑戰(zhàn)

          創(chuàng)新速度較慢:

          閉源項(xiàng)目依賴于內(nèi)部團(tuán)隊(duì)的創(chuàng)新速度,可能比不上開源社區(qū)的集體智慧和多樣化的創(chuàng)新。

          透明性不足:

          由于代碼不公開,用戶無法審查和驗(yàn)證代碼的安全性和可靠性。

          成本較高:

          閉源軟件通常需要購買許可證或訂閱,可能增加用戶的成本。

          開源大模型與閉源大模型,你更看好哪一方?

          回到我們的主題。評(píng)價(jià)一個(gè)AI模型“好不好”“有沒有發(fā)展”,首先就躲不開“開源”和“閉源”兩條發(fā)展路徑。對(duì)于這兩條路徑,實(shí)際上可以從數(shù)據(jù)隱私、商業(yè)應(yīng)用和社區(qū)參與三個(gè)方向探討。


          數(shù)據(jù)隱私

          開源大模型在數(shù)據(jù)隱私保護(hù)方面具有一定的優(yōu)勢。由于其代碼公開,任何人都可以審查和驗(yàn)證模型的安全性和隱私保護(hù)措施。這種透明性有助于發(fā)現(xiàn)和修復(fù)潛在的安全漏洞,確保用戶數(shù)據(jù)的安全。例如,BERT和T5等開源模型不僅提供了卓越的自然語言處理能力,還能讓用戶和開發(fā)者通過自主檢查,確保沒有隱藏的安全風(fēng)險(xiǎn)。

          然而,閉源大模型則在數(shù)據(jù)隱私控制上更為嚴(yán)格。閉源模型通常由公司內(nèi)部團(tuán)隊(duì)開發(fā)和維護(hù),數(shù)據(jù)訪問權(quán)限受到嚴(yán)格控制,能夠更有效地保護(hù)用戶隱私。例如,Google的LaMDA和OpenAI的GPT-4在商業(yè)應(yīng)用中嚴(yán)格控制數(shù)據(jù)訪問和使用,確保用戶數(shù)據(jù)的安全性和隱私保護(hù)。


          商業(yè)應(yīng)用

          在商業(yè)應(yīng)用領(lǐng)域,閉源大模型往往具有更明確的商業(yè)化路徑和資源優(yōu)勢。閉源項(xiàng)目通常由大型科技公司資助,擁有充足的資金和專業(yè)團(tuán)隊(duì),能夠提供高質(zhì)量和穩(wěn)定的服務(wù)。例如,OpenAI的GPT-4通過API提供廣泛的商業(yè)應(yīng)用,包括自動(dòng)化文檔生成和客戶支持等,為企業(yè)帶來顯著的效率提升和成本降低。

          另一方面,開源大模型在商業(yè)化上面臨一些挑戰(zhàn)。盡管開源模型通常是免費(fèi)的,降低了開發(fā)者的進(jìn)入門檻,但其商業(yè)化模式可能更復(fù)雜,主要依賴于服務(wù)和支持等增值業(yè)務(wù)。然而,開源模型也有其獨(dú)特的優(yōu)勢,特別是在推動(dòng)技術(shù)創(chuàng)新和降低初創(chuàng)企業(yè)的開發(fā)成本方面。例如,EleutherAI的GPT-Neo和GPT-J通過開源模式為中小企業(yè)和研究機(jī)構(gòu)提供了強(qiáng)大的自然語言處理工具。


          社區(qū)參與

          開源大模型在社區(qū)參與和合作方面具有明顯的優(yōu)勢。開源項(xiàng)目吸引了全球開發(fā)者和研究人員的廣泛參與,促進(jìn)了快速的迭代和創(chuàng)新。例如,Google的BERT和T5在開源社區(qū)的推動(dòng)下,不斷涌現(xiàn)出新的應(yīng)用和改進(jìn)版本。社區(qū)驅(qū)動(dòng)的創(chuàng)新不僅能迅速發(fā)現(xiàn)和修復(fù)問題,還能在模型的基礎(chǔ)上開發(fā)出更多元化的應(yīng)用場景。開源模型的透明性和可訪問性使得更多人能夠?qū)W習(xí)和使用先進(jìn)的技術(shù),推動(dòng)整個(gè)行業(yè)的進(jìn)步。

          相比之下,閉源大模型在社區(qū)參與方面的局限性較大。由于代碼和數(shù)據(jù)不公開,外部開發(fā)者和研究人員難以直接參與模型的改進(jìn)和創(chuàng)新。這種封閉性雖然有助于控制質(zhì)量和保護(hù)知識(shí)產(chǎn)權(quán),但也可能限制了模型的快速發(fā)展和應(yīng)用多樣性。然而,閉源模型的開發(fā)團(tuán)隊(duì)通常具備更高的專業(yè)水平和資源,能夠在特定領(lǐng)域提供高質(zhì)量的商業(yè)解決方案。例如,Google的LaMDA和Bard在對(duì)話系統(tǒng)中的應(yīng)用體現(xiàn)了其在特定應(yīng)用場景下的卓越性能。

          結(jié)論

          從長期發(fā)展的角度來看,我更看好開源大模型。開源項(xiàng)目是為了分享這個(gè)世界,那么就可能必然會(huì)舍棄掉資源的保密性和私人性,但其在創(chuàng)新速度、透明性、教育和社區(qū)參與方面的優(yōu)勢非常明顯,我認(rèn)為瑕不掩瑜。因?yàn)楫?dāng)一個(gè)開源的項(xiàng)目足夠大足夠精彩,那么或許你在別人眼中就不只是技術(shù)分享者,更多是一個(gè)為計(jì)算機(jī)行業(yè)擁有顯著貢獻(xiàn)的創(chuàng)造者。

          此外,許多成功的商業(yè)公司也在探索開源與閉源結(jié)合的模式,通過開放核心技術(shù)并提供增值服務(wù)來實(shí)現(xiàn)商業(yè)成功。這實(shí)際上也會(huì)促進(jìn)公司之間的合作,從而促進(jìn)商業(yè)化和行業(yè)內(nèi)的發(fā)展。

          然而,這并不意味著閉源大模型沒有前景。對(duì)于某些需要高度安全性和控制的應(yīng)用場景,閉源模式仍然是必要的。因此,具體選擇哪種路徑,還需要根據(jù)具體的應(yīng)用場景和需求進(jìn)行權(quán)衡。

          總的來說,開源大模型和閉源大模型各有其優(yōu)勢和挑戰(zhàn)。在數(shù)據(jù)隱私、商業(yè)應(yīng)用和社區(qū)參與方面,它們展現(xiàn)出不同的特點(diǎn)和潛力。選擇更看好哪一種路徑,取決于你所重視的因素和目標(biāo)。無論是開源還是閉源,推動(dòng)AI技術(shù)的發(fā)展和應(yīng)用,共同促進(jìn)智能時(shí)代的到來,是我們作為掌舵者共同的目標(biāo)。

          機(jī)器學(xué)習(xí)算法AI大數(shù)據(jù)技術(shù)

           搜索公眾號(hào)添加: datanlp

          長按圖片,識(shí)別二維碼




          閱讀過本文的人還看了以下文章:


          整理開源的中文大語言模型,以規(guī)模較小、可私有化部署、訓(xùn)練成本較低的模型為主


          《大語言模型》PDF下載


          動(dòng)手學(xué)深度學(xué)習(xí)-(李沐)PyTorch版本


          YOLOv9電動(dòng)車頭盔佩戴檢測,詳細(xì)講解模型訓(xùn)練


          TensorFlow 2.0深度學(xué)習(xí)案例實(shí)戰(zhàn)


          基于40萬表格數(shù)據(jù)集TableBank,用MaskRCNN做表格檢測


          《基于深度學(xué)習(xí)的自然語言處理》中/英PDF


          Deep Learning 中文版初版-周志華團(tuán)隊(duì)


          【全套視頻課】最全的目標(biāo)檢測算法系列講解,通俗易懂!


          《美團(tuán)機(jī)器學(xué)習(xí)實(shí)踐》_美團(tuán)算法團(tuán)隊(duì).pdf


          《深度學(xué)習(xí)入門:基于Python的理論與實(shí)現(xiàn)》高清中文PDF+源碼


          《深度學(xué)習(xí):基于Keras的Python實(shí)踐》PDF和代碼


          特征提取與圖像處理(第二版).pdf


          python就業(yè)班學(xué)習(xí)視頻,從入門到實(shí)戰(zhàn)項(xiàng)目


          2019最新《PyTorch自然語言處理》英、中文版PDF+源碼


          《21個(gè)項(xiàng)目玩轉(zhuǎn)深度學(xué)習(xí):基于TensorFlow的實(shí)踐詳解》完整版PDF+附書代碼


          《深度學(xué)習(xí)之pytorch》pdf+附書源碼


          PyTorch深度學(xué)習(xí)快速實(shí)戰(zhàn)入門《pytorch-handbook》


          【下載】豆瓣評(píng)分8.1,《機(jī)器學(xué)習(xí)實(shí)戰(zhàn):基于Scikit-Learn和TensorFlow》


          《Python數(shù)據(jù)分析與挖掘?qū)崙?zhàn)》PDF+完整源碼


          汽車行業(yè)完整知識(shí)圖譜項(xiàng)目實(shí)戰(zhàn)視頻(全23課)


          李沐大神開源《動(dòng)手學(xué)深度學(xué)習(xí)》,加州伯克利深度學(xué)習(xí)(2019春)教材


          筆記、代碼清晰易懂!李航《統(tǒng)計(jì)學(xué)習(xí)方法》最新資源全套!


          《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》最新2018版中英PDF+源碼


          將機(jī)器學(xué)習(xí)模型部署為REST API


          FashionAI服裝屬性標(biāo)簽圖像識(shí)別Top1-5方案分享


          重要開源!CNN-RNN-CTC 實(shí)現(xiàn)手寫漢字識(shí)別


          yolo3 檢測出圖像中的不規(guī)則漢字


          同樣是機(jī)器學(xué)習(xí)算法工程師,你的面試為什么過不了?


          前海征信大數(shù)據(jù)算法:風(fēng)險(xiǎn)概率預(yù)測


          【Keras】完整實(shí)現(xiàn)‘交通標(biāo)志’分類、‘票據(jù)’分類兩個(gè)項(xiàng)目,讓你掌握深度學(xué)習(xí)圖像分類


          VGG16遷移學(xué)習(xí),實(shí)現(xiàn)醫(yī)學(xué)圖像識(shí)別分類工程項(xiàng)目


          特征工程(一)


          特征工程(二) :文本數(shù)據(jù)的展開、過濾和分塊


          特征工程(三):特征縮放,從詞袋到 TF-IDF


          特征工程(四): 類別特征


          特征工程(五): PCA 降維


          特征工程(六): 非線性特征提取和模型堆疊


          特征工程(七):圖像特征提取和深度學(xué)習(xí)


          如何利用全新的決策樹集成級(jí)聯(lián)結(jié)構(gòu)gcForest做特征工程并打分?


          Machine Learning Yearning 中文翻譯稿


          螞蟻金服2018秋招-算法工程師(共四面)通過


          全球AI挑戰(zhàn)-場景分類的比賽源碼(多模型融合)


          斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)


          python+flask搭建CNN在線識(shí)別手寫中文網(wǎng)站


          中科院Kaggle全球文本匹配競賽華人第1名團(tuán)隊(duì)-深度學(xué)習(xí)與特征工程



          不斷更新資源

          深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、數(shù)據(jù)分析、python

           搜索公眾號(hào)添加: datayx  



          瀏覽 133
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  免费黄色一区二区成人网站18禁 | 色之综合天天综合色天天棕色 | 乱码av一起艹 | 国产精品18久久久 | 蜜臀久久99精品久久久久酒店 |