<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          獨(dú)家 | 人工神經(jīng)網(wǎng)絡(luò)中發(fā)現(xiàn)了人類大腦擁有的多模態(tài)神經(jīng)元(附鏈接)

          共 11253字,需瀏覽 23分鐘

           ·

          2021-03-31 17:44


          作者:Gabriel Goh, Chelsea Voss, Daniela Amodei, Shan Carter, Michael Petrov, Justin Jay Wang, Nick Cammarata, and Chris Olah

          翻譯:歐陽(yáng)錦 

          校對(duì):王可汗


          本文約4000字,建議閱讀12分鐘

          本文探討了OpenAI在CLIP模型中發(fā)現(xiàn)人類大腦多模態(tài)神經(jīng)元的發(fā)現(xiàn),并對(duì)這項(xiàng)發(fā)現(xiàn)進(jìn)行了深入的思考和研究。


          標(biāo)簽:神經(jīng)網(wǎng)絡(luò) 通用人工智能 語(yǔ)言模型


          OpenAI最近在CLIP神經(jīng)網(wǎng)絡(luò)上發(fā)現(xiàn)了神經(jīng)元。無(wú)論這是字面意義、象征意義還是概念上的表示,這些神經(jīng)元都對(duì)相同的概念做出反應(yīng)。這個(gè)發(fā)現(xiàn)或許可以解釋CLIP在對(duì)令人驚訝的視覺(jué)化概念分類時(shí)的準(zhǔn)確度。同時(shí),這種發(fā)現(xiàn)讓人們向理解CLIP和其他類似模型在訓(xùn)練過(guò)程中學(xué)習(xí)到的關(guān)聯(lián)和偏差邁出了重要的一步。

          內(nèi)容


          • CLIP中的多模態(tài)神經(jīng)元

          • 不存在的概念(concepts)

          • 多模態(tài)神經(jīng)元的構(gòu)成

          • 抽象(abstraction)的悖論

          • 野生攻擊

          • 偏差與過(guò)度泛化

          • 總結(jié)

           

          十五年前,Quiroga等人1發(fā)現(xiàn)人類大腦中擁有多模態(tài)神經(jīng)元。這些神經(jīng)元會(huì)對(duì)圍繞著一個(gè)高級(jí)主題的抽象概念(而不是對(duì)特定視覺(jué)特征的抽象概念)做出反應(yīng)。其中,最著名的當(dāng)屬“Halle Berry”神經(jīng)元,這是一個(gè)被《科學(xué)美國(guó)人》和《紐約時(shí)報(bào)》都使用過(guò)的例子。這個(gè)神經(jīng)元只對(duì)美國(guó)女演員“Halle Berry”的相片、草圖、文字做出反應(yīng)。

          《科學(xué)美國(guó)人》

          https://www.scientificamerican.com/article/one-face-one-neuron/

          《紐約時(shí)報(bào)》

          https://www.nytimes.com/2005/07/05/science/a-neuron-with-halle-berrys-name-on-it.html


          兩個(gè)月前,OpenAI發(fā)布了CLIP,這是一個(gè)可與ResNet-50 2表現(xiàn)力相比肩的通用視覺(jué)系統(tǒng)。不僅如此,在一些具有挑戰(zhàn)性的數(shù)據(jù)集上,CLIP的表現(xiàn)超過(guò)了現(xiàn)有的視覺(jué)系統(tǒng)。這些具有挑戰(zhàn)的數(shù)據(jù)集(ObjectNet,ImageNet Rendition和ImageNet Sketch)均對(duì)模型的魯棒性進(jìn)行了壓力測(cè)試,不僅要識(shí)別簡(jiǎn)單的變形、光照或姿勢(shì)變化,還要完成對(duì)物體(無(wú)論是以草圖、卡通或雕塑的形式出現(xiàn))的抽象和重建。

          CLIP

          https://openai.com/blog/clip/


          現(xiàn)在,OpenAI要發(fā)布關(guān)于CLIP中存在多模態(tài)神經(jīng)元的發(fā)現(xiàn)。舉個(gè)例子,一個(gè)“Spider-Man”神經(jīng)元(與“Halle Berry”神經(jīng)元類似),它會(huì)對(duì)蜘蛛的圖像,對(duì)標(biāo)注了“spider”文字的圖像,以及漫畫(huà)人物“蜘蛛俠”的服裝或插圖做出反應(yīng)。
           
          OpenAI在CLIP中發(fā)現(xiàn)的多模態(tài)神經(jīng)元為這些研究人員提供了線索——抽象是合成視覺(jué)系統(tǒng)與自然視覺(jué)系統(tǒng)中的普遍機(jī)制。由此,他們發(fā)現(xiàn)CLIP的最高層將圖像組織為“ideas”的松散語(yǔ)義集合,這些集合從而對(duì)模型的通用性和表現(xiàn)形式的緊湊性做出了簡(jiǎn)單解釋。


          生物神經(jīng)元,諸如著名的“Halle Berry“”神經(jīng)元不會(huì)激發(fā)“ideas”的視覺(jué)集群,而是激發(fā)語(yǔ)義集群。在CLIP的最高層,研究人員發(fā)現(xiàn)了相似的語(yǔ)義不變性。請(qǐng)注意,這些圖像被Quiroga等人1的高分辨率圖片替代,Quiroga等人的這些高分率圖片本身就是原刺激的替代。

          OpenAI使用可解釋性工具,對(duì)CLIP權(quán)重之內(nèi)的豐富視覺(jué)概念進(jìn)行了史無(wú)前例的研究。他們?cè)贑LIP中發(fā)現(xiàn)了涵蓋人類視覺(jué)詞典大部分的高級(jí)概念,包括地理區(qū)域、面部表情、宗教圖像、名人等。通過(guò)探究每個(gè)神經(jīng)元的后續(xù)影響力,我們可以對(duì)CLIP如何執(zhí)行分類任務(wù)加深了解。

          CLIP中的多模態(tài)神經(jīng)元


          本文建立在近十年來(lái)對(duì)卷積網(wǎng)絡(luò)解釋3,4,5,6,7,8,9,10,11,12的研究基礎(chǔ)上,本研究首先觀察到許多經(jīng)典技術(shù)可以直接用于CLIP。OpenAI使用了兩種工具對(duì)模型激活進(jìn)行理解:特征可視化6,5,12(feature visualization)和數(shù)據(jù)集示例4(dataset examples)。前者是通過(guò)對(duì)輸入進(jìn)行基于梯度的優(yōu)化最大化神經(jīng)元的激活;后者則是觀察一個(gè)數(shù)據(jù)集中一個(gè)神經(jīng)元最大激活圖像的分布。

          使用這些簡(jiǎn)單的技術(shù),研究者們發(fā)現(xiàn)CLIP RN50x4(ResNet-50 利用 EfficientNet 擴(kuò)展規(guī)則擴(kuò)增 4 倍)中的大多數(shù)神經(jīng)元都可以被輕易地解釋。然而,這些神經(jīng)元似乎是“多面神經(jīng)元(multi-faceted neurons)” 11的極端示例,即這些神經(jīng)元僅在更高的抽象水平下對(duì)不同示例做出反應(yīng)。下面的圖片展示了它們的區(qū)別:

          由神經(jīng)元(Neuron)展示的不同效果


          由多面神經(jīng)元(Facet Neuron)展示的效果

          選擇的神經(jīng)元來(lái)自四個(gè)CLIP模型的最后一層。每個(gè)神經(jīng)元由帶有人為選擇的概念標(biāo)簽的特征可視化進(jìn)行表示,這些標(biāo)簽為快速提供每個(gè)神經(jīng)元的感覺(jué)提供幫助。不僅是特征可視化,這些標(biāo)簽是在查看激活神經(jīng)元的數(shù)百種刺激后被選擇的。我們?cè)谶@里通過(guò)一些例子說(shuō)明了模型對(duì)區(qū)域、感情和其他概念的刻板描述傾向。除此之外,我們還看到了神經(jīng)元分辨率水平的差異:雖然某些國(guó)家(如美國(guó)和印度)與定義明確的神經(jīng)元有關(guān),但非洲國(guó)家的情況并非如此。在非洲,神經(jīng)元傾向于在整個(gè)地區(qū)進(jìn)行激活。這部分偏差及其含義將在后面的部分中進(jìn)行討論。


          的確,研究人員驚訝地發(fā)現(xiàn)了例子中許多類別似乎反映了帶有顱內(nèi)深度電極記錄的癲癇患者內(nèi)側(cè)顳葉中的神經(jīng)元。這些神經(jīng)元包含了那些對(duì)情緒17、動(dòng)物18和名人1做出反應(yīng)的神經(jīng)元。

          但是,研究人員對(duì)CLIP的研究揭示了更多這樣奇妙的抽象,它們包括了似乎可以計(jì)數(shù)的神經(jīng)元[17,202,310],對(duì)藝術(shù)風(fēng)格做出反應(yīng)的神經(jīng)元[75,587,122],甚至對(duì)具有處理痕跡的圖像做出反應(yīng)的神經(jīng)元[1640]號(hào)。(請(qǐng)?jiān)谠闹袑?duì)這些神經(jīng)元進(jìn)行進(jìn)一步查看)

          不存在的概念


          盡管這個(gè)分析顯示了概念的廣泛程度,但OpenAI的研究人員注意到,在神經(jīng)元級(jí)別上進(jìn)行的簡(jiǎn)單分析不能代表模型行為的完整記錄。例如,CLIP的作者證明了該模型能夠進(jìn)行非常精確的地理位置定位19(Appendix E.4,F(xiàn)igure 20),其粒度可以擴(kuò)展到城市甚至社區(qū)的級(jí)別。這里有一個(gè)趣事:如果通過(guò)CLIP運(yùn)行自己的個(gè)人照片,研究人員注意到CLIP經(jīng)??梢宰R(shí)別出照片是否是在舊金山,或者其附近(例如“雙子峰”)拍攝的。

          盡管盡了最大的努力,但是研究人員還沒(méi)有找到“San Francisco”神經(jīng)元,從歸因上看,舊金山(“San Francisco”)似乎也沒(méi)有很好地分解成像加州和城市這樣有意義的單元概念。我們相信這些信息被編碼在模型激活的某個(gè)地方,但以一種更奇特的方式,要么是一個(gè)方向,要么是其他一些更復(fù)雜的流形。我們相信這是一個(gè)值得進(jìn)一步研究的方向。

          多模態(tài)神經(jīng)元的構(gòu)成


          這些多峰神經(jīng)元可以幫助人們深入了解CLIP是如何執(zhí)行分類的。使用一個(gè)稀疏線性探針19,研究人員能夠輕松地檢查CLIP的權(quán)重,進(jìn)而觀察哪些概念結(jié)合在一起實(shí)現(xiàn)了ImageNet數(shù)據(jù)集的最終分類:


          如上圖,存錢(qián)罐類別似乎是“finance”神經(jīng)元和瓷器(porcelain)神經(jīng)元的組合。前文提到的“Spider-Man”俠神經(jīng)元也是一個(gè)蜘蛛(spider)檢測(cè)器,在“barn spider”(谷倉(cāng)蜘蛛)類別的分類中起到了重要作用。


          對(duì)于文本分類,研究人員的一個(gè)重要發(fā)現(xiàn)是,這些概念以類似于word2vec目標(biāo)函數(shù)20的形式包含在神經(jīng)元中,它們幾乎是線性的。因此,這些概念組成了一個(gè)簡(jiǎn)單的代數(shù)形式,其行為與線性探針類似。通過(guò)線性化注意力,研究人員也可以像線性探針一樣檢查任何句子,如下所示:

          在探究CLIP如何理解單詞的過(guò)程中,模型似乎發(fā)現(xiàn)“surprised”一詞不僅暗示了某種程度的震驚,而且還包含了一種形式非常特殊的“震驚”,其可能與“喜悅”或“驚異”結(jié)合在一起?!癐ntimate”則包含了柔和的笑容和內(nèi)心,但不包括疾?。╯ickness)。研究人員還注意到,對(duì)“intimate”的理解揭示了人類對(duì)親密關(guān)系完整體驗(yàn)的還原性理解——排除疾?。ɡ纾c生病的親人的親密時(shí)光被排除在外)。在探究CLIP對(duì)語(yǔ)言的理解時(shí),研究人員發(fā)現(xiàn)了很多類似的排除和遺漏。

          抽象(abstraction)的悖論


          CLIP中的抽象程度揭示了一個(gè)新的攻擊向量(vector of attack),OpenAI認(rèn)為攻擊向量在以前的系統(tǒng)中并未表現(xiàn)出來(lái)。如同其他深度網(wǎng)絡(luò),CLIP最高層的表征完全由這種高級(jí)抽象控制。但是CLIP的與眾不同在于其程度(degree)—— CLIP的多模態(tài)神經(jīng)元泛化(generalize)范圍從文字覆蓋到符號(hào),而這可能是一把雙刃劍。

          通過(guò)一系列精心構(gòu)建的實(shí)驗(yàn),研究人員證明了人類可以利用這種還原行為來(lái)欺騙模型,使之進(jìn)行荒謬的分類。研究人員已經(jīng)觀察到,CLIP中神經(jīng)元的激發(fā)通常可以通過(guò)其對(duì)文本圖像(images of text)的反應(yīng)來(lái)控制,從而為攻擊模型提供了一個(gè)簡(jiǎn)單的(攻擊)向量。

          例如,金融(finance)神經(jīng)元[1330]號(hào)對(duì)存錢(qián)罐的圖像做出反應(yīng),但也對(duì)字符串“ $$$”做出反應(yīng)。通過(guò)強(qiáng)迫激活1330號(hào)神經(jīng)元,研究人員可以欺騙模型,并將狗分類為存錢(qián)罐。


          如上圖所示,通過(guò)在圖像上渲染文本,研究人員人為地刺激了1330號(hào)神經(jīng)元,該神經(jīng)元在線性探針的“存錢(qián)罐(piggy bank)”類中具有很高的權(quán)重。這導(dǎo)致分類器將貴賓犬錯(cuò)誤地分類為存錢(qián)罐。


          野生攻擊


          OpenAI將這些攻擊稱為排版攻擊(typographic attacks)。 研究人員認(rèn)為如上所述的攻擊絕不僅僅與學(xué)術(shù)相關(guān)。研究人員發(fā)現(xiàn),通過(guò)利用模型強(qiáng)大的讀取文本的能力,即使是手寫(xiě)文本的照片(photographs of hand-written text)也常常會(huì)欺騙模型。像對(duì)抗補(bǔ)?。ˋdversarial Patch)21一樣,該攻擊屬于野生攻擊;但與對(duì)抗補(bǔ)丁不同的是,排版攻擊只需要筆和紙即可。

          當(dāng)研究人員在這個(gè)Granny Smith(蘋(píng)果的一個(gè)種類)蘋(píng)果上貼一個(gè)標(biāo)有“iPod”的標(biāo)簽時(shí),在零次學(xué)習(xí)(zero-shot)設(shè)置中,該模型會(huì)錯(cuò)誤地將其歸類為iPod。

          OpenAI還認(rèn)為,這些攻擊也可能采取更微妙的、不太引人注目的形式。當(dāng)那些提供給CLIP的圖像以許多微妙而復(fù)雜的方式抽象,這些抽象可能會(huì)過(guò)度抽象常見(jiàn)的模式——即過(guò)于簡(jiǎn)化,并因此而發(fā)生過(guò)度泛化的情況。

          偏差與過(guò)度泛化


          盡管CLIP模型是在精心挑選的互聯(lián)網(wǎng)子集上進(jìn)行訓(xùn)練的,但它仍然繼承了其許多不受控制的偏差和關(guān)聯(lián)。研究人員發(fā)現(xiàn)許多關(guān)聯(lián)似乎是良性的,但是CLIP也包括幾種可能導(dǎo)致很大損害的關(guān)聯(lián),例如,對(duì)某些特定人群或團(tuán)體的詆毀。

          例如,研究人員已經(jīng)觀察到“Middle East”神經(jīng)元[1895]號(hào)與恐怖主義有關(guān);“immigration”神經(jīng)元[395]號(hào)對(duì)拉丁美洲產(chǎn)生反應(yīng)。研究人員甚至發(fā)現(xiàn)了一個(gè)對(duì)黑皮膚人群和大猩猩都產(chǎn)生反應(yīng)的神經(jīng)元[1257]號(hào)。這些都反映了那些人們不可接受的早期其他模型中存在的圖像標(biāo)注問(wèn)題22。

          這些關(guān)聯(lián)對(duì)此類強(qiáng)大的視覺(jué)系統(tǒng)的應(yīng)用提出了極大的挑戰(zhàn)[1]。無(wú)論是微調(diào)還是使用零樣本學(xué)習(xí)(zero-shot),這些偏差和關(guān)聯(lián)都很可能會(huì)保留在系統(tǒng)中,它們也會(huì)以可見(jiàn)和幾乎不可見(jiàn)的方式影響部署過(guò)程。許多偏差行為可能很難被提前預(yù)測(cè),進(jìn)而測(cè)量和校正這些偏差也變得困難。研究人員認(rèn)為,這些可解釋性工具可以提前發(fā)現(xiàn)其中一些關(guān)聯(lián)和歧義,以幫助從業(yè)人員預(yù)防潛在問(wèn)題。

          [1]請(qǐng)注意,發(fā)布的CLIP模型僅用于研究目的。請(qǐng)參閱相關(guān)的型號(hào)卡。

          OpenAL對(duì)CLIP的理解仍在進(jìn)行中,是否會(huì)發(fā)布以及如何發(fā)布大型CLIP仍在討論中。研究人員希望大家對(duì)已發(fā)布的版本和工具進(jìn)行進(jìn)一步的探索,這不僅有助于增進(jìn)對(duì)多模態(tài)系統(tǒng)的理解,也能為人類自己的決策提供信息。


          總結(jié)


          除了本文的發(fā)布,OpenAI還發(fā)布了一些他們用來(lái)理解CLIP的工具——OpenAI Microscope中目錄已更新,其中包含CLIP RN50x4中每個(gè)神經(jīng)元的特征可視化、數(shù)據(jù)集示例和文本特征可視化。OpenAI還將發(fā)布CLIP RN50x4和RN101的權(quán)重,以進(jìn)一步進(jìn)行此類研究。OpenAI的研究人員相信目前對(duì)CLIP行為的理解的研究?jī)H僅是以升量石,OpenAI歡迎各種學(xué)術(shù)組織的加入以推動(dòng)對(duì)CLIP及類似模型的理解的研究。

          OpenAI Microscope
          https://microscope.openai.com/models
          CLIP RN50x4
           https://github.com/openai/CLIP

          論文鏈接:

          https://distill.pub/2021/multimodal-neurons/

          代碼鏈接:

          https://github.com/openai/CLIP-featurevis


          腳注


          [1]請(qǐng)注意,發(fā)布的CLIP模型僅用于研究目的。請(qǐng)參閱相關(guān)的型號(hào)卡。

          https://github.com/openai/CLIP/blob/main/model-card.md


          引用


          1. Quiroga, R. Q., Reddy, L., Kreiman, G., Koch, C., & Fried, I. (2005). Invariant visual epresentation by single neurons in the human brain. Nature, 435(7045), 1102-1107.

          https://www.nature.com/articles/nature03687


          2. He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 770-778).

          https://openaccess.thecvf.com/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdf


          3. Erhan, D., Bengio, Y., Courville, A., & Vincent, P. (2009). Visualizing higher-layer features of a deep network. University of Montreal, 1341(3), 1. 

          https://www.researchgate.net/profile/Aaron_Courville/publication/265022827_Visualizing_Higher-

          Layer_Features_of_a_Deep_Network/links/53ff82b00cf24c81027da530.pdf


          4. Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I., & Fergus, R. (2013). Intriguing properties of neural networks. arXiv preprint arXiv:1312.6199. 

          https://arxiv.org/abs/1312.6199


          5. Mahendran, A., & Vedaldi, A. (2014). Understanding Deep Image Representations by Inverting Them. arXiv preprint arXiv:1412.0035.

          https://arxiv.org/abs/1412.0035


          6. Nguyen, A., Yosinski, J., & Clune, J. (2015). Deep neural networks are easily fooled: High confidence predictions for unrecognizable images. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 427-436).

          https://www.cv-foundation.org/openaccess/content_cvpr_2015/html/Nguyen_Deep_Neural_Networks_2015_CVPR_paper.html


          7. ?ygard, A. (2015). Visualizing GoogLeNet Classes. Accessed in.

          https://www.auduno.com/2015/07/29/visualizing-googlenet-classes/


          8. Mordvintsev, A., Olah, C., & Tyka, M. (2015). Inceptionism: Going deeper into neural networks.

          https://ai.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html


          9. Nguyen, A., Dosovitskiy, A., Yosinski, J., Brox, T., & Clune, J. (2016). Synthesizing the preferred inputs for neurons in neural networks via deep generator networks. arXiv preprint arXiv:1605.09304.

          https://arxiv.org/abs/1605.09304


          10. Nguyen, A., Clune, J., Bengio, Y., Dosovitskiy, A., & Yosinski, J. (2017). Plug & play generative networks: Conditional iterative generation of images in latent space. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 4467-4477). 

          http://openaccess.thecvf.com/content_cvpr_2017/html/Nguyen_Plug__Play_CVPR_2017_paper.html


          11. Nguyen, A., Yosinski, J., & Clune, J. (2016). Multifaceted feature visualization: Uncovering the different types of features learned by each neuron in deep neural networks. arXiv preprint arXiv:1602.03616.

          https://arxiv.org/abs/1602.03616


          12. Olah, C., Mordvintsev, A., & Schubert, L. (2017). Feature visualization. Distill, 2(11), e7.

          https://distill.pub/2017/feature-visualization


          13. Goh, G., et al. (2021). Multimodal Neurons in Artificial Neural Networks. Distill.

          https://mp.weixin.qq.com/cgi-bin/appmsg?t=media/appmsg_edit_v2&action=edit&isNew=1&type=10&createType=0&token=395857631&lang=zh_CN#imagenet-challenge


          14. Miller, G. A. (1995). WordNet: a lexical database for English. Communications of the ACM, 38(11), 39-41.

          https://dl.acm.org/doi/abs/10.1145/219717.219748


          15. Crawford, K. & Paglen, T. (2019). Excavating AI: the politics of images in machine learning training sets. Excavating AI.

          https://excavating.ai/


          16. Hanna, A., Denton, E., Amironesei, R,, Smart A., Nicole, H. Lines of Sight. Logic Magazine.

          https://logicmag.io/commons/lines-of-sight/


          17. Fried, I., MacDonald, K. A., & Wilson, C. L. (1997). Single neuron activity in human hippocampus and amygdala during recognition of faces and objects. Neuron, 18(5), 753-765.

          https://www.sciencedirect.com/science/article/pii/S0896627300803153


          18. Kreiman, G., Koch, C., & Fried, I. (2000). Category-specific visual responses of single neurons in the human medial temporal lobe. Nature neuroscience, 3(9), 946-953.

          https://www.nature.com/articles/nn0900_946


          19. Radford, A., Jozefowicz, R., & Sutskever, I. (2017). Learning to generate reviews and discovering sentiment. arXiv preprint arXiv:1704.01444.

          https://arxiv.org/abs/1704.01444


          20. Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781.

          https://arxiv.org/abs/1301.3781


          21. Brown, T. B., Mané, D., Roy, A., Abadi, M., & Gilmer, J. (2017). Adversarial patch. arXiv preprint arXiv:1712.09665.

          https://arxiv.org/abs/1712.09665


          22. Crawford, K. & Paglen, T. (2019). Excavating AI: the politics of images in machine learning training sets. Excavating AI.

          https://excavating.ai/


          編輯:王菁
          校對(duì):林亦霖




          譯者簡(jiǎn)介




          歐陽(yáng)錦,我是一名即將去埃因霍芬理工大學(xué)繼續(xù)攻讀數(shù)據(jù)科學(xué)專業(yè)的碩士生。本科畢業(yè)于華北電力大學(xué),自己喜歡的科研方向是隱私安全中的數(shù)據(jù)科學(xué)算法。有很多愛(ài)好和興趣(攝影、運(yùn)動(dòng)、音樂(lè)),對(duì)生活中的事情充滿興趣,是個(gè)熱愛(ài)鉆研、開(kāi)朗樂(lè)觀的人。為了更好地學(xué)習(xí)自己喜歡的專業(yè)領(lǐng)域,希望能夠接觸到更多相關(guān)的事物以開(kāi)拓自己的眼界和思路。

          翻譯組招募信息

          工作內(nèi)容:需要一顆細(xì)致的心,將選取好的外文文章翻譯成流暢的中文。如果你是數(shù)據(jù)科學(xué)/統(tǒng)計(jì)學(xué)/計(jì)算機(jī)類的留學(xué)生,或在海外從事相關(guān)工作,或?qū)ψ约和庹Z(yǔ)水平有信心的朋友歡迎加入翻譯小組。

          你能得到:定期的翻譯培訓(xùn)提高志愿者的翻譯水平,提高對(duì)于數(shù)據(jù)科學(xué)前沿的認(rèn)知,海外的朋友可以和國(guó)內(nèi)技術(shù)應(yīng)用發(fā)展保持聯(lián)系,THU數(shù)據(jù)派產(chǎn)學(xué)研的背景為志愿者帶來(lái)好的發(fā)展機(jī)遇。

          其他福利:來(lái)自于名企的數(shù)據(jù)科學(xué)工作者,北大清華以及海外等名校學(xué)生他們都將成為你在翻譯小組的伙伴。


          點(diǎn)擊文末“閱讀原文”加入數(shù)據(jù)派團(tuán)隊(duì)~



          轉(zhuǎn)載須知

          如需轉(zhuǎn)載,請(qǐng)?jiān)陂_(kāi)篇顯著位置注明作者和出處(轉(zhuǎn)自:數(shù)據(jù)派ID:DatapiTHU),并在文章結(jié)尾放置數(shù)據(jù)派醒目二維碼。有原創(chuàng)標(biāo)識(shí)文章,請(qǐng)發(fā)送【文章名稱-待授權(quán)公眾號(hào)名稱及ID】至聯(lián)系郵箱,申請(qǐng)白名單授權(quán)并按要求編輯。

          發(fā)布后請(qǐng)將鏈接反饋至聯(lián)系郵箱(見(jiàn)下方)。未經(jīng)許可的轉(zhuǎn)載以及改編者,我們將依法追究其法律責(zé)任。



          點(diǎn)擊“閱讀原文”擁抱組織



          瀏覽 74
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚洲日韩一中文字幕 | 五月婷婷大香蕉 | 青青草公开无码好屌色 | 日本女人毛片全网推荐免费看 | 亚洲无码1000 |