22年CV頂會前沿論文帶讀,安排妥妥的!??

導(dǎo)讀:在煉丹界中,快速刷論文了解一下最前沿研究已經(jīng)是每個(gè)煉丹師的必備技能了
隨著計(jì)算機(jī)視覺近年來的爆發(fā)性成長,相關(guān)的論文著作更是層出不窮。尤其是CV下的各大頂會新出的論文,往往更是當(dāng)年Al發(fā)展的風(fēng)向標(biāo)。

為了讓自己的知識不過時(shí),隨時(shí)跟進(jìn)頂會論文,洞悉計(jì)算機(jī)視覺領(lǐng)域大牛們的最新動態(tài),也是從業(yè)者們也都要保持學(xué)術(shù)思維和習(xí)慣。
可是,對許多初學(xué)者來說,讀論文是件痛苦的事兒。他們可以很容易地通過網(wǎng)絡(luò)下載到最前沿的研究論文,但學(xué)術(shù)論文有自己的一套規(guī)范,沒有經(jīng)過一定的訓(xùn)練,很可能會浪費(fèi)很多時(shí)間在琢磨怎么讀懂一篇篇的論文上,因?yàn)檎撐淖髡邆兌寄J(rèn)你自己就會了。如果讀起來都吃力的話,那就更談不上自己編寫了。
▋那么該讀什么樣的論文,以及如何閱讀論文才能真正吸收精華?

考慮到很多學(xué)員在讀CV頂會前沿論文都會有一些難題,比如難以緊隨最新發(fā)展方向、系統(tǒng)學(xué)習(xí),在發(fā)表論文之前,資料匱乏或者覺得頂會論文寫法晦澀深奧,百思莫解等等問題。
七月在線特推出本中級的《CV頂會前沿paper帶讀班》,名師引領(lǐng),深入剖析:21/22年頂會24篇前沿論文。

開課時(shí)間:7月31日
詳情請掃碼加(或七月在線任一老師)咨詢
? 第一篇 谷歌大腦:開啟Transformer在計(jì)算機(jī)視覺獨(dú)霸一方的鼻祖:ViT
Vision Transformer:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
? 第二篇 蘋果公司:輕量級移動網(wǎng)絡(luò)霸主的自我更新:MobileViT
MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer
? 第三篇 FAIR(Facebook AI研究院):何愷明大神最新佳作,75%損失的圖像重構(gòu):MAE
MAE:Masked Autoencoders Are Scalable Vision Learners
? 第四篇 NLP大佬BERT的跨界視覺下預(yù)訓(xùn)練模型
BEiT: BERT Pre-Training of Image Transformers
? 第五篇 字節(jié)跳動首發(fā):視覺任務(wù)的大規(guī)模預(yù)訓(xùn)練方法
iBOT: Image BERT Pre-Training with Online Tokenizer
? 第六篇 微軟亞洲研究院:2021 ICCV Best Paper
Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
? 第七篇 微軟亞洲研究院:野心膨脹后的swin,目標(biāo)一統(tǒng)CV江湖:識別、檢測、分割
Swin Transformer V2: Scaling Up Capacity and Resolution
? 第八篇 OpenAI:多模態(tài)學(xué)習(xí),超大規(guī)模模型預(yù)訓(xùn)練提取視覺特征
CLIP: Connecting Text and Images - OpenAI
? 第九篇 SaleForce:超越CLIP,統(tǒng)一視覺語言理解和生成
BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation
? 第十篇 香港大學(xué):卷積網(wǎng)絡(luò)與Transfomer在計(jì)算機(jī)視覺領(lǐng)域大碰撞
ConvNets vs. Transformers: Whose Visual Representations are More Transferable?
? 第十一篇 FAIR(Facebook AI研究院):20世紀(jì)20年代大爆發(fā)的卷積神經(jīng)網(wǎng)絡(luò)
ConvNeXt: A ConvNet for the 2020s
? 第十二篇 卡內(nèi)基梅隆大學(xué):拒絕Transformer,卷積還是王道
Patches Are All You Need?
? 第十三篇 新加坡國立大學(xué):橫掃CV多項(xiàng)記錄(識別、檢測、分割),首個(gè)超越87%的模型
VOLO: Vision Outlooker for Visual Recognition
? ?第十四篇 清華大學(xué):細(xì)粒度手勢重構(gòu)
Intaghand: Interacting Attention Graph for Single Image Two-Hand Reconstruction
? 第十五篇 都靈理工大學(xué):充分利用時(shí)空Transformer的基于骨骼數(shù)據(jù)集的行為識別與分析
Skeleton-based Action Recognition via Spatial and Temporal Transformer Networks
? 第十六篇至第二十四篇 待報(bào)名學(xué)員一一提供,已報(bào)名學(xué)員想讀哪篇,則精讀哪篇

優(yōu)勢1:算法與論文齊頭并進(jìn)
授課教師會預(yù)先根據(jù)計(jì)算機(jī)視覺領(lǐng)域的最新科研發(fā)展在當(dāng)下各頂會中篩選出一系列論文,深入發(fā)掘各算法內(nèi)在創(chuàng)新點(diǎn)與知識點(diǎn),且更進(jìn)一步逐句分析論文中各段落、語句之間的關(guān)系,算法創(chuàng)新模型與科研論文創(chuàng)作技巧并學(xué),以深厚的SCI英文論文寫作功力和深耕多年的科研經(jīng)驗(yàn)帶領(lǐng)大家層層闖關(guān)。
優(yōu)勢2:精度哪篇?學(xué)員決定!
第十五篇之外,學(xué)員可向授課教師反饋下一階段感興趣但晦澀艱深的頂會論文,邀請授課教授對其精細(xì)帶讀講解。在這種前所未有的頂會論文的雙向選擇模式下,學(xué)員敢挑戰(zhàn),我們敢迎接,共同把握當(dāng)下、抓住前沿、與時(shí)俱進(jìn)!
優(yōu)勢3:領(lǐng)讀人和論文同樣精挑細(xì)選
由在計(jì)算機(jī)視覺領(lǐng)域耕耘多年的研究員(博士)帶著精讀,同時(shí)具備工業(yè)界和學(xué)術(shù)界雙重資歷,并有著SCl論文審稿經(jīng)歷,可充分把握計(jì)算機(jī)視覺發(fā)展的風(fēng)向標(biāo)。
優(yōu)勢4:全方位剖析,拒絕泛泛而讀
針對每篇論文,除了最基本的算法模型講解外,更將從這些方面來深入剖析:論文價(jià)值、泛讀/精度的方法策略、寫作方法策略、經(jīng)典架構(gòu)再現(xiàn)、復(fù)現(xiàn)思路、代碼分析、未來改進(jìn)計(jì)劃。
2、自行讀頂會論文效率不高的,比如覺得頂會涉及理論盤根錯(cuò)節(jié),難以理清,或者創(chuàng)新優(yōu)化方案神乎其神、匪夷所思,再或者平臺新增論文種類繁多,不好辨別
3、大廠算法/研究型人才,經(jīng)常需要讀頂會前沿paper

」同時(shí)針對于已發(fā)表過相關(guān)論文或想要發(fā)表更高層次(如:頂會)論文的同學(xué)建議大家可以參加一下七月在線的七月在高級的『AI學(xué)術(shù)論文1Vl發(fā)表輔導(dǎo)(名師全程輔導(dǎo)El/ei/SCl/各頂會)』。
一對一管家式服務(wù),全程輔導(dǎo),圍繞“國內(nèi)期刊、EI會議/ei期刊、SCI四區(qū)到SCl一區(qū)/CCF ABC三類、AI各頂會”做全程輔導(dǎo),包括且不限于課題確定、創(chuàng)作、修改、投遞、發(fā)布等等,從而在導(dǎo)師輔導(dǎo)下學(xué)員獨(dú)立自主創(chuàng)作至成功發(fā)表;

且老師都是國內(nèi)外知名高校博士畢業(yè)且具備強(qiáng)大學(xué)術(shù)背景的師資團(tuán)隊(duì),針對不同群體不同的訴求提供整體解決方案。

同時(shí)在學(xué)員在發(fā)表第一篇的過程中,讓學(xué)員掌握—套成體系的論文發(fā)表方法/策略/流程,為后續(xù)成為會議/paper收割機(jī)打下堅(jiān)實(shí)基礎(chǔ)。

