AI大模型開源與閉源
共 8679字,需瀏覽 18分鐘
·
2024-06-24 11:00
向AI轉(zhuǎn)型的程序員都關(guān)注公眾號(hào) 機(jī)器學(xué)習(xí)AI算法工程
文章目錄
開源大模型
GPT-3(OpenAI)
BERT(Google)
T5(Google)
GPT-Neo和GPT-J(EleutherAI)
BLOOM(BigScience)
優(yōu)勢
挑戰(zhàn)
閉源大模型
GPT-4(OpenAI)
Bard(Google)
LaMDA(Google)
Claude(Anthropic)
MUM(Google)
優(yōu)勢
挑戰(zhàn)
開源大模型與閉源大模型,你更看好哪一方?
數(shù)據(jù)隱私
商業(yè)應(yīng)用
社區(qū)參與
結(jié)論
首先我們還是對(duì) 大模型以及開源閉源進(jìn)行一定的分析。
大模型是指具有大規(guī)模參數(shù)和復(fù)雜計(jì)算結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型。通常基于深度學(xué)習(xí)技術(shù)。這些模型在AI的發(fā)展中起到了至關(guān)重要的作用,尤其是在自然語言處理(NLP)、計(jì)算機(jī)視覺和語音識(shí)別等領(lǐng)域。
以下是開源大模型和閉源大模型的基本簡介。
開源大模型
開源大模型近年來在人工智能領(lǐng)域取得了顯著的進(jìn)展,許多開源大模型在學(xué)術(shù)研究、工業(yè)應(yīng)用和社區(qū)創(chuàng)新中發(fā)揮了重要作用。以下是幾個(gè)著名的開源大模型的介紹:
GPT-3(OpenAI)
GPT-3(Generative Pre-trained Transformer 3)是OpenAI發(fā)布的一個(gè)大規(guī)模預(yù)訓(xùn)練語言模型。盡管GPT-3本身不是完全開源的,但OpenAI提供了API,使得開發(fā)者可以訪問和使用該模型。它是基于Transformer架構(gòu),擁有1750億參數(shù),是目前最大的語言模型之一。
特點(diǎn)
生成能力:GPT-3在生成自然語言文本方面表現(xiàn)出色,可以生成具有連貫性和上下文相關(guān)的段落。
多用途:GPT-3可以用于多種任務(wù),如翻譯、問答、摘要生成、對(duì)話系統(tǒng)等。
少量樣本學(xué)習(xí):GPT-3在少量樣本情況下也能表現(xiàn)出良好的效果,這使得它在實(shí)際應(yīng)用中非常靈活。
應(yīng)用場景
企業(yè)應(yīng)用:GPT-3通過OpenAI API幫助企業(yè)自動(dòng)化內(nèi)容生成、客戶支持和市場營銷文案。例如,自動(dòng)生成產(chǎn)品描述、撰寫營銷郵件和創(chuàng)建社交媒體內(nèi)容。
開發(fā)工具:開發(fā)者可以利用GPT-3 API在應(yīng)用中集成智能助手、對(duì)話系統(tǒng)和自動(dòng)化客服機(jī)器人,提高用戶體驗(yàn)和效率。
BERT(Google)
簡介
BERT(Bidirectional Encoder Representations from Transformers)是Google發(fā)布的一個(gè)開創(chuàng)性語言模型。它的出現(xiàn)引領(lǐng)了自然語言處理領(lǐng)域的重大突破。BERT的源代碼和預(yù)訓(xùn)練模型都在GitHub上開源。
特點(diǎn)
雙向編碼:BERT使用雙向Transformer進(jìn)行編碼,這使得模型在理解句子上下文時(shí)更加準(zhǔn)確。
預(yù)訓(xùn)練和微調(diào):BERT通過在大規(guī)模語料上預(yù)訓(xùn)練,然后在特定任務(wù)上微調(diào),從而實(shí)現(xiàn)了卓越的性能。
廣泛應(yīng)用:BERT在許多自然語言處理任務(wù)中表現(xiàn)出色,如問答、命名實(shí)體識(shí)別、情感分析等。
應(yīng)用場景
自然語言理解:BERT被廣泛應(yīng)用于自然語言處理任務(wù),如情感分析、命名實(shí)體識(shí)別和文本分類。例如,分析社交媒體上的情感趨勢、識(shí)別新聞中的關(guān)鍵實(shí)體和自動(dòng)分類客戶反饋。
搜索引擎優(yōu)化:BERT改進(jìn)搜索引擎的查詢理解能力,提高搜索結(jié)果的相關(guān)性和準(zhǔn)確性。它被用于Google搜索引擎中,幫助理解復(fù)雜的搜索查詢并提供更相關(guān)的結(jié)果。
T5(Google)
簡介
T5(Text-To-Text Transfer Transformer)是Google提出的一種統(tǒng)一的文本到文本框架模型。T5的設(shè)計(jì)理念是將所有的自然語言處理任務(wù)轉(zhuǎn)化為文本到文本的形式。T5的代碼和預(yù)訓(xùn)練模型也是開源的。
特點(diǎn)
統(tǒng)一框架:T5將不同的任務(wù)(如翻譯、摘要、分類)統(tǒng)一為文本生成問題,這使得模型架構(gòu)更加簡潔。
大規(guī)模預(yù)訓(xùn)練:T5在大規(guī)模文本數(shù)據(jù)上進(jìn)行了預(yù)訓(xùn)練,具有強(qiáng)大的生成和理解能力。
靈活性:由于其統(tǒng)一的框架,T5可以很容易地適應(yīng)各種自然語言處理任務(wù)。
應(yīng)用場景
翻譯和摘要:T5在翻譯和文本摘要生成方面表現(xiàn)出色,應(yīng)用于自動(dòng)翻譯文檔、生成新聞?wù)吞崛£P(guān)鍵信息。例如,幫助企業(yè)自動(dòng)翻譯技術(shù)文檔,生成簡潔的新聞?wù)阌诳焖匍喿x。
問答系統(tǒng):T5被用于構(gòu)建智能問答系統(tǒng),如企業(yè)內(nèi)部知識(shí)庫問答、在線客服機(jī)器人和教育領(lǐng)域的智能輔導(dǎo)工具,提供準(zhǔn)確和高效的問答服務(wù)。
GPT-Neo和GPT-J(EleutherAI)
簡介
GPT-Neo和GPT-J是由EleutherAI開發(fā)的開源大規(guī)模語言模型,旨在提供與GPT-3相當(dāng)?shù)拈_源替代品。GPT-Neo和GPT-J的源代碼和預(yù)訓(xùn)練模型都公開發(fā)布,供社區(qū)使用和改進(jìn)。
特點(diǎn)
高可用性:作為開源項(xiàng)目,任何人都可以訪問和使用這些模型。
大規(guī)模:GPT-J擁有60億參數(shù),是當(dāng)前最大的開源語言模型之一。
社區(qū)驅(qū)動(dòng):EleutherAI的模型開發(fā)依賴于社區(qū)的貢獻(xiàn)和合作,促進(jìn)了快速的迭代和創(chuàng)新。
應(yīng)用場景
教育和研究:GPT-Neo和GPT-J被廣泛應(yīng)用于教育和研究領(lǐng)域,幫助學(xué)生和研究人員生成報(bào)告、撰寫論文和進(jìn)行數(shù)據(jù)分析。例如,生成科研報(bào)告的初稿,提供論文寫作輔助和自動(dòng)化數(shù)據(jù)摘要。
內(nèi)容創(chuàng)作:這些模型被用于自動(dòng)化內(nèi)容創(chuàng)作,如博客文章、故事創(chuàng)作和劇本寫作,幫助創(chuàng)作者提高生產(chǎn)效率和創(chuàng)意表達(dá)。
BLOOM(BigScience)
簡介
BLOOM(BigScience Large Open-science Open-access Multilingual Language Model)是由BigScience項(xiàng)目發(fā)布的一個(gè)大規(guī)模多語言模型。BLOOM的開發(fā)集中了來自全球研究者的合作力量。
特點(diǎn)
多語言支持:BLOOM支持?jǐn)?shù)十種語言,具有強(qiáng)大的跨語言理解和生成能力。
社區(qū)合作:BLOOM的開發(fā)過程透明,依賴于全球研究社區(qū)的合作。
開源和開放訪問:BLOOM的源代碼和模型權(quán)重公開發(fā)布,供研究和應(yīng)用使用。
應(yīng)用場景
跨語言應(yīng)用:BLOOM的多語言支持能力使其在跨語言翻譯和多語言對(duì)話系統(tǒng)中具有廣泛應(yīng)用。例如,構(gòu)建支持多語言的全球客服系統(tǒng),自動(dòng)翻譯和本地化內(nèi)容,促進(jìn)國際交流和合作。
學(xué)術(shù)研究:BLOOM為學(xué)術(shù)研究提供了強(qiáng)大的工具,支持多語言語料庫分析、跨文化研究和全球知識(shí)共享。例如,研究人員使用BLOOM分析多語言數(shù)據(jù)集,進(jìn)行跨文化對(duì)比研究,推動(dòng)全球化研究進(jìn)展。
這些開源大模型在推動(dòng)人工智能技術(shù)進(jìn)步的同時(shí),也為研究人員和開發(fā)者提供了豐富的資源和工具,使得更多的人能夠參與到AI技術(shù)的創(chuàng)新和應(yīng)用中。
優(yōu)勢
社區(qū)驅(qū)動(dòng)的創(chuàng)新:
開源項(xiàng)目可以吸引全球開發(fā)者和研究人員的參與,促進(jìn)快速迭代和創(chuàng)新。
通過集體智慧,問題可以更快地被發(fā)現(xiàn)和解決。
透明性和可驗(yàn)證性:
開源代碼可以被任何人審查,從而提高了透明性和可信度。
用戶可以對(duì)代碼進(jìn)行獨(dú)立驗(yàn)證,確保沒有隱藏的漏洞或后門。
教育和研究:
開源項(xiàng)目為學(xué)術(shù)研究和教育提供了寶貴的資源,使得更多的人能夠?qū)W習(xí)和使用先進(jìn)的技術(shù)。
研究人員可以基于開源項(xiàng)目進(jìn)行進(jìn)一步的創(chuàng)新和實(shí)驗(yàn)。
成本效益:
開源軟件通常免費(fèi),降低了開發(fā)者和企業(yè)的進(jìn)入門檻。
挑戰(zhàn)
資源和資金:
開源項(xiàng)目可能面臨資金和資源不足的問題,特別是在需要大量計(jì)算資源的AI領(lǐng)域。
依賴社區(qū)貢獻(xiàn),項(xiàng)目的持續(xù)性和穩(wěn)定性可能受到影響。
商業(yè)化困難:
盡管可以通過服務(wù)和支持等方式商業(yè)化,但與直接銷售軟件許可證相比,開源項(xiàng)目的商業(yè)化模式可能更復(fù)雜。
閉源大模型
閉源大模型主要由一些大型科技公司開發(fā)和維護(hù),雖然這些模型的代碼和訓(xùn)練數(shù)據(jù)并未公開,但它們在各種應(yīng)用場景中表現(xiàn)出了卓越的性能,并且通常通過API或商業(yè)化產(chǎn)品提供給用戶。以下是幾個(gè)著名的閉源大模型的介紹:
GPT-4(OpenAI)
簡介
GPT-4 是OpenAI發(fā)布的最新一代大規(guī)模語言模型,繼承了GPT-3的強(qiáng)大性能,但在很多方面進(jìn)行了改進(jìn)和增強(qiáng)。雖然模型本身是閉源的,但OpenAI通過API和合作伙伴關(guān)系提供了廣泛的訪問和應(yīng)用。
特點(diǎn)
性能提升:相比GPT-3,GPT-4在自然語言理解和生成方面表現(xiàn)得更為優(yōu)異。
多模態(tài)支持:GPT-4不僅支持文本,還可以處理圖像等其他類型的數(shù)據(jù)(取決于具體版本)。
應(yīng)用廣泛:GPT-4在對(duì)話系統(tǒng)、內(nèi)容生成、代碼編寫、翻譯等多個(gè)領(lǐng)域都有出色表現(xiàn)。
應(yīng)用場景
企業(yè)應(yīng)用:GPT-4被用于增強(qiáng)客戶服務(wù)、自動(dòng)化文檔生成、數(shù)據(jù)分析等。
開發(fā)工具:通過OpenAI API,開發(fā)者可以將GPT-4集成到各種應(yīng)用中,例如智能助手和內(nèi)容管理系統(tǒng)。
Bard(Google)
簡介
Bard 是Google推出的高級(jí)對(duì)話AI模型,專注于提供自然流暢的對(duì)話體驗(yàn)。Bard整合了Google在自然語言處理和機(jī)器學(xué)習(xí)方面的最新進(jìn)展,盡管模型和訓(xùn)練數(shù)據(jù)閉源,但通過Google的服務(wù)可以訪問。
特點(diǎn)
上下文理解:Bard具備深度上下文理解能力,可以進(jìn)行長時(shí)間連貫對(duì)話。
多輪對(duì)話:能夠處理復(fù)雜的多輪對(duì)話,提供詳細(xì)和相關(guān)的回答。
集成服務(wù):與Google搜索、地圖、日歷等服務(wù)無縫集成,提供更為實(shí)用的對(duì)話體驗(yàn)。
應(yīng)用場景
個(gè)人助理:Bard用于智能手機(jī)助手、智能音箱等設(shè)備,為用戶提供日常幫助。
客戶支持:幫助企業(yè)提升客戶服務(wù)效率,提供快速、準(zhǔn)確的自動(dòng)化回復(fù)。
LaMDA(Google)
簡介
LaMDA(Language Model for Dialogue Applications)是Google專為對(duì)話設(shè)計(jì)的大型語言模型,旨在提供更為自然和有意義的對(duì)話體驗(yàn)。盡管LaMDA是閉源的,但它在多個(gè)Google產(chǎn)品中得到了應(yīng)用。
特點(diǎn)
對(duì)話優(yōu)化:LaMDA專門為對(duì)話優(yōu)化,具備理解和生成自然對(duì)話的能力。
上下文保持:能夠在長時(shí)間對(duì)話中保持上下文一致性,使得對(duì)話更加流暢。
多領(lǐng)域知識(shí):具備廣泛的知識(shí)覆蓋,可以處理各種話題的對(duì)話。
應(yīng)用場景
對(duì)話系統(tǒng):用于智能聊天機(jī)器人、虛擬助理等系統(tǒng),提升用戶互動(dòng)體驗(yàn)。
客戶服務(wù):在企業(yè)客戶服務(wù)中,提供自動(dòng)化和智能化的對(duì)話解決方案。
Claude(Anthropic)
簡介
Claude是由Anthropic公司開發(fā)的一種先進(jìn)的對(duì)話AI模型,致力于提供安全且高度可控的對(duì)話體驗(yàn)。盡管Claude是閉源的,但它以其對(duì)安全性和倫理性的關(guān)注而著稱
特點(diǎn)
安全性:Claude在設(shè)計(jì)上特別注重對(duì)話的安全和倫理問題,避免有害輸出。
高可控性:提供了細(xì)粒度的控制選項(xiàng),允許用戶調(diào)整模型的行為和回答方式。
對(duì)話深度:具備處理復(fù)雜和深入對(duì)話的能力,提供詳細(xì)和有幫助的回答。
應(yīng)用場景
敏感環(huán)境:在需要高度安全和倫理考量的環(huán)境中使用,例如醫(yī)療咨詢和法律咨詢。
客戶支持:用于提供安全且可靠的客戶支持服務(wù),提升用戶信任度。
MUM(Google)
簡介
MUM(Multitask Unified Model)是Google開發(fā)的一種多任務(wù)統(tǒng)一模型,旨在提供超越傳統(tǒng)搜索體驗(yàn)的能力。MUM不僅處理文本,還可以理解和生成圖像、視頻等多種數(shù)據(jù)形式。
特點(diǎn)
多任務(wù)處理:MUM能夠同時(shí)處理多種任務(wù),如搜索、問答、翻譯等。
多模態(tài)支持:支持文本、圖像、視頻等多種數(shù)據(jù)形式的理解和生成。
高度智能:具備深度理解能力,可以提供更為精確和相關(guān)的搜索結(jié)果。
應(yīng)用場景
搜索引擎:提升搜索引擎的智能化水平,提供更為精確和多樣化的搜索結(jié)果。
信息檢索:在各種信息檢索和數(shù)據(jù)分析任務(wù)中,提供強(qiáng)大的支持。
這些閉源大模型在各自的應(yīng)用領(lǐng)域中展示了卓越的性能和廣泛的應(yīng)用前景,盡管它們的源代碼和訓(xùn)練數(shù)據(jù)未公開,但通過商業(yè)化產(chǎn)品和服務(wù),它們?nèi)匀粸橛脩籼峁┝藦?qiáng)大的人工智能能力。
優(yōu)勢
資源充足:
閉源項(xiàng)目通常由公司資助,擁有充足的資金和資源進(jìn)行長期開發(fā)和維護(hù)。
可以雇傭?qū)I(yè)團(tuán)隊(duì)進(jìn)行專注開發(fā),保證產(chǎn)品質(zhì)量和穩(wěn)定性。
商業(yè)化路徑明確:
閉源軟件可以通過銷售許可證、訂閱服務(wù)等方式直接盈利,商業(yè)模式清晰。
數(shù)據(jù)安全和控制:
公司可以嚴(yán)格控制代碼和數(shù)據(jù)的訪問,確保安全性和隱私保護(hù)。
一致性和整合性:
由于開發(fā)由一個(gè)團(tuán)隊(duì)或公司負(fù)責(zé),閉源軟件在設(shè)計(jì)和實(shí)現(xiàn)上更容易保持一致性和整合性。
挑戰(zhàn)
創(chuàng)新速度較慢:
閉源項(xiàng)目依賴于內(nèi)部團(tuán)隊(duì)的創(chuàng)新速度,可能比不上開源社區(qū)的集體智慧和多樣化的創(chuàng)新。
透明性不足:
由于代碼不公開,用戶無法審查和驗(yàn)證代碼的安全性和可靠性。
成本較高:
閉源軟件通常需要購買許可證或訂閱,可能增加用戶的成本。
開源大模型與閉源大模型,你更看好哪一方?
回到我們的主題。評(píng)價(jià)一個(gè)AI模型“好不好”“有沒有發(fā)展”,首先就躲不開“開源”和“閉源”兩條發(fā)展路徑。對(duì)于這兩條路徑,實(shí)際上可以從數(shù)據(jù)隱私、商業(yè)應(yīng)用和社區(qū)參與三個(gè)方向探討。
數(shù)據(jù)隱私
開源大模型在數(shù)據(jù)隱私保護(hù)方面具有一定的優(yōu)勢。由于其代碼公開,任何人都可以審查和驗(yàn)證模型的安全性和隱私保護(hù)措施。這種透明性有助于發(fā)現(xiàn)和修復(fù)潛在的安全漏洞,確保用戶數(shù)據(jù)的安全。例如,BERT和T5等開源模型不僅提供了卓越的自然語言處理能力,還能讓用戶和開發(fā)者通過自主檢查,確保沒有隱藏的安全風(fēng)險(xiǎn)。
然而,閉源大模型則在數(shù)據(jù)隱私控制上更為嚴(yán)格。閉源模型通常由公司內(nèi)部團(tuán)隊(duì)開發(fā)和維護(hù),數(shù)據(jù)訪問權(quán)限受到嚴(yán)格控制,能夠更有效地保護(hù)用戶隱私。例如,Google的LaMDA和OpenAI的GPT-4在商業(yè)應(yīng)用中嚴(yán)格控制數(shù)據(jù)訪問和使用,確保用戶數(shù)據(jù)的安全性和隱私保護(hù)。
商業(yè)應(yīng)用
在商業(yè)應(yīng)用領(lǐng)域,閉源大模型往往具有更明確的商業(yè)化路徑和資源優(yōu)勢。閉源項(xiàng)目通常由大型科技公司資助,擁有充足的資金和專業(yè)團(tuán)隊(duì),能夠提供高質(zhì)量和穩(wěn)定的服務(wù)。例如,OpenAI的GPT-4通過API提供廣泛的商業(yè)應(yīng)用,包括自動(dòng)化文檔生成和客戶支持等,為企業(yè)帶來顯著的效率提升和成本降低。
另一方面,開源大模型在商業(yè)化上面臨一些挑戰(zhàn)。盡管開源模型通常是免費(fèi)的,降低了開發(fā)者的進(jìn)入門檻,但其商業(yè)化模式可能更復(fù)雜,主要依賴于服務(wù)和支持等增值業(yè)務(wù)。然而,開源模型也有其獨(dú)特的優(yōu)勢,特別是在推動(dòng)技術(shù)創(chuàng)新和降低初創(chuàng)企業(yè)的開發(fā)成本方面。例如,EleutherAI的GPT-Neo和GPT-J通過開源模式為中小企業(yè)和研究機(jī)構(gòu)提供了強(qiáng)大的自然語言處理工具。
社區(qū)參與
開源大模型在社區(qū)參與和合作方面具有明顯的優(yōu)勢。開源項(xiàng)目吸引了全球開發(fā)者和研究人員的廣泛參與,促進(jìn)了快速的迭代和創(chuàng)新。例如,Google的BERT和T5在開源社區(qū)的推動(dòng)下,不斷涌現(xiàn)出新的應(yīng)用和改進(jìn)版本。社區(qū)驅(qū)動(dòng)的創(chuàng)新不僅能迅速發(fā)現(xiàn)和修復(fù)問題,還能在模型的基礎(chǔ)上開發(fā)出更多元化的應(yīng)用場景。開源模型的透明性和可訪問性使得更多人能夠?qū)W習(xí)和使用先進(jìn)的技術(shù),推動(dòng)整個(gè)行業(yè)的進(jìn)步。
相比之下,閉源大模型在社區(qū)參與方面的局限性較大。由于代碼和數(shù)據(jù)不公開,外部開發(fā)者和研究人員難以直接參與模型的改進(jìn)和創(chuàng)新。這種封閉性雖然有助于控制質(zhì)量和保護(hù)知識(shí)產(chǎn)權(quán),但也可能限制了模型的快速發(fā)展和應(yīng)用多樣性。然而,閉源模型的開發(fā)團(tuán)隊(duì)通常具備更高的專業(yè)水平和資源,能夠在特定領(lǐng)域提供高質(zhì)量的商業(yè)解決方案。例如,Google的LaMDA和Bard在對(duì)話系統(tǒng)中的應(yīng)用體現(xiàn)了其在特定應(yīng)用場景下的卓越性能。
結(jié)論
從長期發(fā)展的角度來看,我更看好開源大模型。開源項(xiàng)目是為了分享這個(gè)世界,那么就可能必然會(huì)舍棄掉資源的保密性和私人性,但其在創(chuàng)新速度、透明性、教育和社區(qū)參與方面的優(yōu)勢非常明顯,我認(rèn)為瑕不掩瑜。因?yàn)楫?dāng)一個(gè)開源的項(xiàng)目足夠大足夠精彩,那么或許你在別人眼中就不只是技術(shù)分享者,更多是一個(gè)為計(jì)算機(jī)行業(yè)擁有顯著貢獻(xiàn)的創(chuàng)造者。
此外,許多成功的商業(yè)公司也在探索開源與閉源結(jié)合的模式,通過開放核心技術(shù)并提供增值服務(wù)來實(shí)現(xiàn)商業(yè)成功。這實(shí)際上也會(huì)促進(jìn)公司之間的合作,從而促進(jìn)商業(yè)化和行業(yè)內(nèi)的發(fā)展。
然而,這并不意味著閉源大模型沒有前景。對(duì)于某些需要高度安全性和控制的應(yīng)用場景,閉源模式仍然是必要的。因此,具體選擇哪種路徑,還需要根據(jù)具體的應(yīng)用場景和需求進(jìn)行權(quán)衡。
總的來說,開源大模型和閉源大模型各有其優(yōu)勢和挑戰(zhàn)。在數(shù)據(jù)隱私、商業(yè)應(yīng)用和社區(qū)參與方面,它們展現(xiàn)出不同的特點(diǎn)和潛力。選擇更看好哪一種路徑,取決于你所重視的因素和目標(biāo)。無論是開源還是閉源,推動(dòng)AI技術(shù)的發(fā)展和應(yīng)用,共同促進(jìn)智能時(shí)代的到來,是我們作為掌舵者共同的目標(biāo)。
機(jī)器學(xué)習(xí)算法AI大數(shù)據(jù)技術(shù)
搜索公眾號(hào)添加: datanlp
長按圖片,識(shí)別二維碼
閱讀過本文的人還看了以下文章:
整理開源的中文大語言模型,以規(guī)模較小、可私有化部署、訓(xùn)練成本較低的模型為主
動(dòng)手學(xué)深度學(xué)習(xí)-(李沐)PyTorch版本
YOLOv9電動(dòng)車頭盔佩戴檢測,詳細(xì)講解模型訓(xùn)練
TensorFlow 2.0深度學(xué)習(xí)案例實(shí)戰(zhàn)
基于40萬表格數(shù)據(jù)集TableBank,用MaskRCNN做表格檢測
《基于深度學(xué)習(xí)的自然語言處理》中/英PDF
Deep Learning 中文版初版-周志華團(tuán)隊(duì)
【全套視頻課】最全的目標(biāo)檢測算法系列講解,通俗易懂!
《美團(tuán)機(jī)器學(xué)習(xí)實(shí)踐》_美團(tuán)算法團(tuán)隊(duì).pdf
《深度學(xué)習(xí)入門:基于Python的理論與實(shí)現(xiàn)》高清中文PDF+源碼
《深度學(xué)習(xí):基于Keras的Python實(shí)踐》PDF和代碼
python就業(yè)班學(xué)習(xí)視頻,從入門到實(shí)戰(zhàn)項(xiàng)目
2019最新《PyTorch自然語言處理》英、中文版PDF+源碼
《21個(gè)項(xiàng)目玩轉(zhuǎn)深度學(xué)習(xí):基于TensorFlow的實(shí)踐詳解》完整版PDF+附書代碼
《深度學(xué)習(xí)之pytorch》pdf+附書源碼
PyTorch深度學(xué)習(xí)快速實(shí)戰(zhàn)入門《pytorch-handbook》
【下載】豆瓣評(píng)分8.1,《機(jī)器學(xué)習(xí)實(shí)戰(zhàn):基于Scikit-Learn和TensorFlow》
《Python數(shù)據(jù)分析與挖掘?qū)崙?zhàn)》PDF+完整源碼
汽車行業(yè)完整知識(shí)圖譜項(xiàng)目實(shí)戰(zhàn)視頻(全23課)
李沐大神開源《動(dòng)手學(xué)深度學(xué)習(xí)》,加州伯克利深度學(xué)習(xí)(2019春)教材
筆記、代碼清晰易懂!李航《統(tǒng)計(jì)學(xué)習(xí)方法》最新資源全套!
《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》最新2018版中英PDF+源碼
將機(jī)器學(xué)習(xí)模型部署為REST API
FashionAI服裝屬性標(biāo)簽圖像識(shí)別Top1-5方案分享
重要開源!CNN-RNN-CTC 實(shí)現(xiàn)手寫漢字識(shí)別
同樣是機(jī)器學(xué)習(xí)算法工程師,你的面試為什么過不了?
前海征信大數(shù)據(jù)算法:風(fēng)險(xiǎn)概率預(yù)測
【Keras】完整實(shí)現(xiàn)‘交通標(biāo)志’分類、‘票據(jù)’分類兩個(gè)項(xiàng)目,讓你掌握深度學(xué)習(xí)圖像分類
VGG16遷移學(xué)習(xí),實(shí)現(xiàn)醫(yī)學(xué)圖像識(shí)別分類工程項(xiàng)目
特征工程(二) :文本數(shù)據(jù)的展開、過濾和分塊
如何利用全新的決策樹集成級(jí)聯(lián)結(jié)構(gòu)gcForest做特征工程并打分?
Machine Learning Yearning 中文翻譯稿
斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)
python+flask搭建CNN在線識(shí)別手寫中文網(wǎng)站
中科院Kaggle全球文本匹配競賽華人第1名團(tuán)隊(duì)-深度學(xué)習(xí)與特征工程
不斷更新資源
深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、數(shù)據(jù)分析、python
搜索公眾號(hào)添加: datayx
