最近在脈脈上看到一位網(wǎng)友的職言:

這位網(wǎng)友將算法和開發(fā)做了對比并寫成了五言絕句,主要告訴我們相比于開發(fā)崗而言,互聯(lián)網(wǎng)公司中的算法工程師很少需要通宵,且不需要面對無盡的需求,只需要調(diào)好自己的模型,并產(chǎn)生業(yè)務(wù)收益即可,這也是為什么大廠里很少能看到女生做開發(fā),但做算法的女生相對來說卻很多。
做一名算法工程師容易,但要做好卻很難,如果只會調(diào)參,其實(shí)很難成為真正的”算法人上人“。
因?yàn)锳I是一門入門簡單,但想深入?yún)s很難的學(xué)科,這也是為什么AI高端人才一直非常緊缺的重要原因。在AI領(lǐng)域技術(shù)領(lǐng)域,我們可以說機(jī)器學(xué)習(xí)功底決定了一個人的上限也不為過。為什么?機(jī)器學(xué)習(xí)就像物理學(xué)中的數(shù)學(xué),如果你對數(shù)學(xué)沒有很好地掌握,想深入物理學(xué)科是不太可能的。放到AI領(lǐng)域,不管你做NLP方向也好,還是CV方向也好,只要深入下去,都會發(fā)現(xiàn)跟機(jī)器學(xué)習(xí)息息相關(guān)。
在工作中,你是否能夠利用1-3天的時(shí)間來復(fù)現(xiàn)任意頂會的文章?是否能夠按照實(shí)際的場景靈活提出新的模型,或者提出對現(xiàn)有模型的改造?實(shí)際上這些是核心競爭力,同時(shí)是走向高端人才必須要經(jīng)歷的門檻。雖然很有挑戰(zhàn),但一旦過了這個門檻你就會發(fā)現(xiàn)你是市場中的TOP5%.
所以我們設(shè)計(jì)了這樣的一門課程,目的就是一個:讓你有機(jī)會成為市場中的TOP5%。我們希望通過這樣的一門課程來增強(qiáng)對機(jī)器學(xué)習(xí)的深入理解,掌握背后的每個細(xì)節(jié),這一點(diǎn)很重要。這門課程主要包含了凸優(yōu)化、圖神經(jīng)網(wǎng)絡(luò)、深度貝葉斯以及強(qiáng)化學(xué)習(xí),也是機(jī)器學(xué)習(xí)領(lǐng)域比較主流的四大領(lǐng)域。每個領(lǐng)域都有一定的門檻,但真正經(jīng)歷過之后大概率會驚訝地發(fā)現(xiàn)自己成長了不少。?
下面對每個部分的內(nèi)容詳細(xì)做了介紹,感興趣的朋友們可以來咨詢更多。?
凸優(yōu)化在人工智能領(lǐng)域有著舉足輕重的地位,對于模型的訓(xùn)練實(shí)際上等同于對模型的優(yōu)化。我們平時(shí)使用的sgd, adam, adagrad, l-bfgs這類算法均屬于優(yōu)化范疇。在AI的應(yīng)用中,當(dāng)我們構(gòu)造了目標(biāo)函數(shù)之后,接下來的工作就是優(yōu)化部分。那為什么凸優(yōu)化這么重要呢?設(shè)想一下,如果你想設(shè)計(jì)一個新的模型,或者在原有的模型基礎(chǔ)做一些創(chuàng)新,那對于新構(gòu)造的目標(biāo)函數(shù),你需要懂得如何去優(yōu)化,以及用什么樣的優(yōu)化算法才能解出更好的局部最優(yōu)解。所以,對于想進(jìn)階的AI工程師來說,凸優(yōu)化是必備課,必須要掌握的內(nèi)容。學(xué)習(xí)目標(biāo):了解凸優(yōu)化技術(shù)以及應(yīng)用場景,理解凸優(yōu)化技術(shù)的類別、技術(shù)范疇、以及能把凸優(yōu)化技術(shù)跟生活和工作中的問題聯(lián)系在一起。同時(shí),深入理解線性規(guī)劃技術(shù),以及它在不同場景中的應(yīng)用,并能夠?qū)崿F(xiàn)。-?從優(yōu)化角度理解機(jī)器學(xué)習(xí)-?線性規(guī)劃以及Simplex Method-?案例分析:運(yùn)輸中的優(yōu)化問題-?案例分析:投放運(yùn)營中的優(yōu)化問題學(xué)習(xí)目標(biāo):學(xué)習(xí)如何識別凸函數(shù)和如果判定凸函數(shù),這里會涉及到三種不同的方法以及多個案例講解。同時(shí),本周能學(xué)到二次規(guī)劃相關(guān)的知識,以及能夠用二次規(guī)劃去模擬的實(shí)際問題以及求解方式。?- 方法1:Prove by Definition-?方法2:First-order Convexity- 方法3:Second-order Convexity- 二次規(guī)劃問題以及凸函數(shù)證明學(xué)習(xí)目標(biāo):學(xué)習(xí)如何識別凸函數(shù)和如果判定凸函數(shù),這里會涉及到三種不同的方法以及多個案例講解。同時(shí),本周能學(xué)到二次規(guī)劃相關(guān)的知識,以及能夠用二次規(guī)劃去模擬的實(shí)際問題以及求解方式。?學(xué)習(xí)目標(biāo):作為一個案例章節(jié),主要學(xué)習(xí)優(yōu)化在量化投資中的應(yīng)用,同時(shí)也學(xué)習(xí)常見的量化投資策略。這一章的學(xué)習(xí)一方面可以帶來對新的領(lǐng)域的學(xué)習(xí),同時(shí)也給其他領(lǐng)域的問題提供思路。??- 基于機(jī)器學(xué)習(xí)模型的量化策略- Efficient Frontier, Sharp Ratio學(xué)習(xí)目標(biāo):掌握對偶相關(guān)的知識,對偶可以算是優(yōu)化領(lǐng)域最為經(jīng)典的一套方法論。學(xué)完本部分之后,可以對已有的模型做改進(jìn),同時(shí)能夠靈活做對偶轉(zhuǎn)換。深入理解對偶領(lǐng)域中的Lower Bound Property,KKT條件,Weak Duality等基本理論。一句話,Duality是優(yōu)化的精華!?- Weak and Strong Duality- 經(jīng)典機(jī)器學(xué)習(xí)模型的對偶轉(zhuǎn)換學(xué)習(xí)目標(biāo):掌握對偶相關(guān)的知識,對偶可以算是優(yōu)化領(lǐng)域最為經(jīng)典的一套方法論。學(xué)完本部分之后,可以對已有的模型做改進(jìn),同時(shí)能夠靈活做對偶轉(zhuǎn)換。深入理解對偶領(lǐng)域中的Lower Bound Property,KKT條件,Weak Duality等基本理論。一句話,Duality是優(yōu)化的精華!?- Proximal Gradient Descent- Projected Gradient Descent- Stochastic Gradient Descent第七周:優(yōu)化技術(shù)進(jìn)階學(xué)習(xí)目標(biāo):掌握其他主流的優(yōu)化技術(shù),這些都屬于比較進(jìn)階的內(nèi)容,需要前面內(nèi)容的基礎(chǔ)。主要掌握Interior Point Method,ADMM等模型。- Sparsity與優(yōu)化關(guān)系作業(yè)項(xiàng)目:優(yōu)化與量化投資項(xiàng)目描述:量化投資作為金融領(lǐng)域一大分支,今年來受到了很大的關(guān)注。在這個項(xiàng)目中,我們將使用在課程中已學(xué)過的優(yōu)化技術(shù)來搭建買賣策 略,并在平臺上做回測,最終得到策略的效果。這個項(xiàng)目的主要目的有以下幾種:1. 了解并掌握量化投資領(lǐng)域,雖然跟很多人的工作關(guān)系不大,但畢竟是一個新興領(lǐng)域,而且跟 AI 技術(shù)的結(jié)合比較緊密,強(qiáng)烈建議借此機(jī)會學(xué)習(xí)。2. 掌握并實(shí)戰(zhàn)優(yōu)化技術(shù),通過編寫真正的策略會真正明白優(yōu)化技術(shù)如何應(yīng)用在工業(yè)界環(huán)境中。3. 基于給定的優(yōu)化方法,自己試著去改進(jìn)并創(chuàng)造新的優(yōu)化方法,讓回測效果更好。涉及到的技術(shù):量化投資、凸優(yōu)化2. 圖神經(jīng)網(wǎng)絡(luò):
圖神經(jīng)網(wǎng)絡(luò)是指神經(jīng)網(wǎng)絡(luò)在圖上應(yīng)用的模型的統(tǒng)稱,根據(jù)采用的技術(shù)不同和分類方法的不同,又可以分為下圖中的不同種類,例如從傳播的方式來看,圖神經(jīng)網(wǎng)絡(luò)可以分為圖卷積神經(jīng)網(wǎng)絡(luò)(GCN),圖注意力網(wǎng)絡(luò)(GAT,縮寫為了跟GAN區(qū)分),Graph LSTM等等,本質(zhì)上還是把文本圖像的那一套網(wǎng)絡(luò)結(jié)構(gòu)技巧借鑒過來做了新的嘗試。在本次課上,我們著重學(xué)習(xí)關(guān)于圖卷積技術(shù)以及其相關(guān)知識,例如:圖論基礎(chǔ),GCN的卷積由來和詳解,GAT等相關(guān)邊嵌入模型,以及GCN在各個方向的應(yīng)用。第一周:GNN相關(guān)數(shù)學(xué)基礎(chǔ)(1)學(xué)習(xí)目標(biāo):掌握圖神經(jīng)網(wǎng)絡(luò)中涉及到的基礎(chǔ)理論,包括不同空間的描述,傅里葉變化以及CNN相關(guān)的技術(shù)。- Inner Product, Hilbert Space- Eigenfunction, Eigenvalue第二周:GNN相關(guān)數(shù)學(xué)基礎(chǔ)(2)學(xué)習(xí)目標(biāo):掌握圖神經(jīng)網(wǎng)絡(luò)中涉及到的基礎(chǔ)理論,包括不同空間的描述,傅里葉變化以及CNN相關(guān)的技術(shù)。?- Network Community Detection
- 拉普拉斯算子和矩陣的數(shù)學(xué)意義學(xué)習(xí)目標(biāo):掌握圖卷積相關(guān)的基本知識,這是理解圖神經(jīng)網(wǎng)絡(luò)的根本。在本部分,系統(tǒng)性掌握我們目前常使用的GCN模型是如何得出來的,而不是停留在僅僅使用的層面,這里包括ChebNet等我們需要理解的內(nèi)容。?學(xué)習(xí)目標(biāo):掌握Spatial類型圖神經(jīng)網(wǎng)絡(luò),本質(zhì)上跟GCN的構(gòu)造方式是不一樣的,但變得越來越流行。本節(jié)重點(diǎn)掌握GAT以及Attention如何用在圖神經(jīng)網(wǎng)絡(luò)之中。??- Graph Attention Networks(GAT)第五周:圖神經(jīng)網(wǎng)絡(luò)改進(jìn)與應(yīng)用學(xué)習(xí)目標(biāo):掌握改進(jìn)圖神經(jīng)網(wǎng)絡(luò),以及它背后的思路。這種能力可以帶給你,今后在工作中遇到類似的問題,你也有能力做一些模型上的改進(jìn)!-?Relative Position與圖神經(jīng)網(wǎng)絡(luò)拓展學(xué)習(xí)目標(biāo):除了GCN,GAT等主流圖神經(jīng)網(wǎng)絡(luò)模型之外,還有一些非常流行的圖模型。本節(jié)主要幫助學(xué)員掌握此類模型,包括Deepwalk, Node2Vec等非常有價(jià)值的模型。- HGCN的設(shè)計(jì)和應(yīng)用作業(yè)項(xiàng)目:基于GCN的鏈路預(yù)測項(xiàng)目描述:鏈路預(yù)測(Link Prediction)是通過已知的網(wǎng)絡(luò)節(jié)點(diǎn)以及網(wǎng)絡(luò)結(jié)構(gòu)等信息預(yù)測網(wǎng)絡(luò)中尚未產(chǎn)生連邊的兩個節(jié)點(diǎn)之間產(chǎn)生鏈接的可能性。近幾年在線社交網(wǎng)絡(luò)發(fā)展非常迅速,鏈路預(yù)測可以基于當(dāng)前的網(wǎng)絡(luò)結(jié)構(gòu)去預(yù)測哪些尚未結(jié)交的用戶“應(yīng)該是朋友”,并將此結(jié)果作為“朋友推薦”發(fā)送給用戶:如果預(yù)測足夠準(zhǔn)確,顯然有助于提高相關(guān)網(wǎng)站在用戶心目中的地位,從而提高用戶對該網(wǎng)站的忠誠度。另外,鏈路預(yù)測的思想和方法,還可以用于在已知部分節(jié)點(diǎn)類型的網(wǎng)絡(luò)中預(yù)測未標(biāo)簽節(jié)點(diǎn)的類型——這可以用于判斷一篇學(xué)術(shù)論文的類型或者判斷一個手機(jī)用戶是否產(chǎn)生了切換運(yùn)營商(例如從移動到聯(lián)通)的念頭。涉及到的技術(shù):GCN,GAT,KGCN,相似度計(jì)算,圖論貝葉斯深度學(xué)習(xí)是一項(xiàng)迅速崛起的技術(shù),融合了深度學(xué)習(xí)和貝葉斯核心技術(shù),使得模型本身可以更好地捕獲數(shù)據(jù)中的不確定性,同時(shí)也能預(yù)測出結(jié)果的不確定性,同時(shí)貝葉斯模型也比較適合小數(shù)據(jù)量的場景。通過本次課程的學(xué)習(xí),學(xué)員能夠系統(tǒng)性掌握貝葉斯核心技術(shù),包括MCMC,變分法,VAE, 貝葉斯優(yōu)化,主題模型,對抗學(xué)習(xí),以及如何應(yīng)用在不同的場景中,既有助于應(yīng)用層面上的提升,也有助于科研。
第一周:貝葉斯機(jī)器學(xué)習(xí)介紹學(xué)習(xí)目標(biāo):掌握貝葉斯基本理論、掌握最大似然與貝葉斯估計(jì)之間的區(qū)別,以及跟集成模型之間的關(guān)系。了解貝葉斯學(xué)習(xí)中的兩種近似算法,MCMC與VI以及區(qū)別。同時(shí),掌握如何解決具體的貝葉斯學(xué)習(xí)問題。?-?案例分析:基于貝葉斯的股價(jià)預(yù)測-?案例分析:Probabilistic Programming-?案例分析:Edwin的使用以及實(shí)戰(zhàn)學(xué)習(xí)目標(biāo):系統(tǒng)性掌握主題模型的細(xì)節(jié),包括它的背景、生成過程以及推理。通過此學(xué)習(xí),同時(shí)也可以掌握跟貝葉斯樸素貝葉斯之間的聯(lián)系,以及在生成邏輯中的差異。??-?案例分析:Bayesian-LSTM的文本分析學(xué)習(xí)目標(biāo):掌握各類采樣技術(shù),特別是吉布斯采樣,也是MCMC中最為重要的一項(xiàng)技術(shù)。另外,完完整整地掌握LDA的所有詳細(xì)的推導(dǎo)細(xì)節(jié)。?-??案例分析:不同采樣技術(shù)實(shí)現(xiàn)與比較學(xué)習(xí)目標(biāo):掌握近似算法中另外一個最核心的技術(shù)-變分法。掌握如何設(shè)計(jì)變分參數(shù)、如何優(yōu)化變分的目標(biāo)函數(shù)以及最后的模型的預(yù)測。這里涉及到KL散度、ELBo、和優(yōu)化等內(nèi)容。?-?案例分析:在推薦領(lǐng)域中的應(yīng)用學(xué)習(xí)目標(biāo):掌握如何通過貝葉斯深度學(xué)習(xí)模型去量化模型和數(shù)據(jù)中的不確定性,主要學(xué)習(xí)MC Dropout等技術(shù)。同時(shí)掌握深度生成模型技術(shù)以及它們的應(yīng)用。?- 貝葉斯深度學(xué)習(xí)的應(yīng)用-?Reparameterization Trick
第六周:貝葉斯深度學(xué)習(xí)與自然語言處理學(xué)習(xí)目標(biāo):掌握貝葉斯深度學(xué)習(xí)在自然語言處理任務(wù)中的應(yīng)用,包括命名實(shí)體識別、文本分析等任務(wù)。?同時(shí),掌握Adversial Attack相關(guān)的技術(shù),以及它跟貝葉斯方法論之間的關(guān)系。?-?基于GNN的Adversial Learning-?案例分析:基于貝葉斯網(wǎng)絡(luò)的命名實(shí)體識別
-?案例分析:基于貝葉斯深度學(xué)習(xí)的文本分析作業(yè)項(xiàng)目:基于修改版LDA的情感分析項(xiàng)目描述:本項(xiàng)目的目的是如何基于LDA來自動抽取文本中的情感,這個項(xiàng)目涉及到對于LDA模型的改造以及對于新模型的推導(dǎo),具有一定的挑戰(zhàn)。在本項(xiàng)目中,我們會一步步引導(dǎo)學(xué)員去設(shè)計(jì)模型,并對模型做出吉布斯采樣的全部推導(dǎo)過程以及實(shí)現(xiàn)環(huán)節(jié)。通過此項(xiàng)目,學(xué)員會親身體會整個貝葉斯模型的設(shè)計(jì)和訓(xùn)練過程。涉及到的技術(shù):主題模型,吉布斯采樣,Collapsed吉布斯采樣,無監(jiān)督情感分析
4. 深度強(qiáng)化學(xué)習(xí)
強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支,相較于機(jī)器學(xué)習(xí)經(jīng)典的有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)問題,強(qiáng)化學(xué)習(xí)最大的特點(diǎn)是在交互中學(xué)習(xí)(Learning from Interaction)。Agent在與環(huán)境的交互中根據(jù)獲得的獎勵或懲罰不斷的學(xué)習(xí)知識,更加適應(yīng)環(huán)境。RL學(xué)習(xí)的范式非常類似于我們?nèi)祟悓W(xué)習(xí)知識的過程,也正因此,RL被視為實(shí)現(xiàn)通用AI重要途徑。<br>通過融合深度學(xué)習(xí),深度強(qiáng)化學(xué)習(xí)迅速在圍棋,游戲等場景取得了超越人類的表現(xiàn)。通過本次課程,學(xué)員能夠系統(tǒng)的掌握深度學(xué)習(xí)框架及核心技術(shù),包括 Markov Desision Process, Monte Carlo Control, SARSA, Q learning, Value Approximation, Deep reinforcement Learning ,及強(qiáng)化學(xué)習(xí)在游戲,自然語言中, 推薦的應(yīng)用過程,即有助于應(yīng)用層面上的提升,也給科研提供新的思路與方向。
第一周:強(qiáng)化學(xué)習(xí)基礎(chǔ)(1)學(xué)習(xí)目標(biāo):掌握強(qiáng)化學(xué)習(xí)最基本的知識,包括MDP, Bellman Equation以及動態(tài)規(guī)劃,這些對后續(xù)的學(xué)習(xí)是必須的。?-?Markov Decision Process(MDP)第二周:強(qiáng)化學(xué)習(xí)基礎(chǔ)(2)學(xué)習(xí)目標(biāo):掌握強(qiáng)化學(xué)習(xí)最基本的知識,包括Model free policy,Monte Carlo Control, Q-Learning等。?-?On-policy Monte Carlo Control-?案例分析:Atari的實(shí)現(xiàn)以及講解
第三周:強(qiáng)化學(xué)習(xí)基礎(chǔ)學(xué)習(xí)目標(biāo):掌握強(qiáng)化學(xué)習(xí)核心方法論,能把相應(yīng)的技術(shù)應(yīng)用在自己的問題當(dāng)中。主要的技術(shù)涉及深度強(qiáng)化學(xué)習(xí)。?- Deep?reinforcement learning- Advanced?reinforcement learing第四周:探索、實(shí)施、推薦系統(tǒng)學(xué)習(xí)目標(biāo):掌握強(qiáng)化學(xué)習(xí)在online learning的應(yīng)用,包括各類multi-armed bandit算法,以及在推薦中的應(yīng)用。?-?案例分析:強(qiáng)化學(xué)習(xí)與推薦系統(tǒng)第五周:多智能體的強(qiáng)化學(xué)習(xí)與稀疏Reward的設(shè)計(jì)學(xué)習(xí)目標(biāo):掌握強(qiáng)化學(xué)習(xí)中的多智能體學(xué)習(xí)和各種Reward設(shè)計(jì)方法,能夠靈活在自身的問題中應(yīng)用起來。?- Multi agent Reinforcement Learning第六周:強(qiáng)化學(xué)習(xí)在NLP、量化和游戲中的應(yīng)用學(xué)習(xí)目標(biāo):掌握強(qiáng)化學(xué)習(xí)在主流場景中的應(yīng)用,包括自然語言處理、量化投資以及游戲。?-?案例分析:強(qiáng)化學(xué)習(xí)的應(yīng)用場景-?案例分析:強(qiáng)化學(xué)習(xí)在NLP中的應(yīng)用-?案例分析:強(qiáng)化學(xué)習(xí)在量化投資中的應(yīng)用-?案例分析:強(qiáng)化學(xué)習(xí)在游戲中的應(yīng)用作業(yè)項(xiàng)目:利用強(qiáng)化學(xué)習(xí)搭建游戲智能體項(xiàng)目描述:本項(xiàng)目 (coursework) 旨在實(shí)踐并設(shè)計(jì)強(qiáng)化學(xué)習(xí)算法來探索,解決解決強(qiáng)化學(xué)習(xí)問題。其中包括模擬HFO ( Half Field Offence)及 Flappy Bird。通過此項(xiàng)目,期望同學(xué)們能充分理解,并可掌握,應(yīng)用 (但不限于) :狀態(tài)State, 動作Action, MDP( 馬爾可夫決策過程)。State value function ,State Action value function 如何進(jìn)行估計(jì),迭代及預(yù)測。深度神經(jīng)網(wǎng)絡(luò)強(qiáng)化學(xué)習(xí)對Value Approximation進(jìn)行評估, 并進(jìn)行Policy優(yōu)化。Exploration 和 Exploitation 的平衡優(yōu)化也將會在本項(xiàng)目的最后進(jìn)行探索。。涉及到的技術(shù):MDP建模,Q Learning,Monte Carlo control,Value Iteration, Deep Q Learning我們專注人工智能人才培養(yǎng)4年,在AI領(lǐng)域,國內(nèi)屬于最頭部的人才培養(yǎng)黃埔院校。在AI人才培養(yǎng)上,已跟京東、騰訊等大廠一直建立者良好的戰(zhàn)略合作關(guān)系,學(xué)員也來自斯坦福、伯克利、清華、北大等世界級名校。姓名:李**
學(xué)校專業(yè):燕山大學(xué) 控制工程專業(yè) 2019級碩士畢業(yè)生
原工作單位:軟通動力 算法工程師 年薪20萬
跳槽方向:算法工程師
匹配方案:技術(shù)研修+背景提升+求職面試一籃子服務(wù)
最終跳槽公司:榮耀 年薪45萬
履約服務(wù)時(shí)長:7個月
姓名:Jerry Zhao
學(xué)校專業(yè):澳大利亞國立大學(xué) 計(jì)算機(jī)專業(yè) 2018級本科畢業(yè)生
原工作單位:魯班軟件 初級算法工程師 年薪18萬
跳槽方向:ML算法工程師
匹配方案:技術(shù)研修+案例項(xiàng)目學(xué)習(xí)+求職面試一籃子服務(wù)
最終跳槽公司:網(wǎng)易 年薪40萬
履約服務(wù)時(shí)長:4個月
姓名:錢**
學(xué)校專業(yè):中國農(nóng)業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù) 2018級本科畢業(yè)生
原工作單位:聚美國際 算法工程師 年薪22萬
跳槽方向:算法工程師?
匹配方案:技術(shù)研修+導(dǎo)師咨詢+求職面試一籃子服務(wù)
最終跳槽公司:亞馬遜電商 年薪47萬
履約服務(wù)時(shí)長:11個月
姓名:蔡*
學(xué)校專業(yè):中科院自動化所 智能控制與計(jì)算智能 2020級博士畢業(yè)生
原工作單位:中國科學(xué)院自動化研究所-智能系統(tǒng)與工程研究中心-實(shí)習(xí) 年薪5萬
跳槽方向:ML算法工程師
匹配方案:背景提升+大廠技術(shù)大牛求職方向規(guī)劃+求職面試一籃子服務(wù)
最終跳槽公司:比亞迪 年薪38萬
履約服務(wù)時(shí)長:2個月

李文哲
貪心科技CEO
美國南加州大學(xué)博士
曾任獨(dú)角獸金科集團(tuán)首席數(shù)據(jù)科學(xué)家、美國亞馬遜和高盛的高級工程師
金融行業(yè)開創(chuàng)知識圖譜做大數(shù)據(jù)反欺詐的第一人
先后在AAAI、KDD、AISTATS、CHI等國際會議上發(fā)表過15篇以上論文

楊老師
推薦系統(tǒng),計(jì)算機(jī)視覺領(lǐng)域?qū)<?/span>
香港城市大學(xué)博士,加州大學(xué)美熹德分校博士后
主要從事機(jī)器學(xué)習(xí),圖卷積,圖嵌入的研究
先后在ECCV, Trans on Cybernetics, Trans on NSE, INDIN等國際頂會及期刊上發(fā)表過數(shù)篇論文

王老師
畢業(yè)于QS排名TOP20名校
先后任職于亞馬遜,華為,平安科技等AI研發(fā)部門
主要從事機(jī)器閱讀理解,信息檢索,文本生成等方向的研究
先后在AAAI, ICLR等發(fā)表數(shù)篇論文,擁有多項(xiàng)國家發(fā)明專利