2020 Top10 爆款的計算機(jī)視覺論文匯總:論文,代碼,解讀,還有demo視頻!
點(diǎn)擊上方“AI算法與圖像處理”,選擇加"星標(biāo)"或“置頂”
重磅干貨,第一時間送達(dá)
本文轉(zhuǎn)載自:AI公園
作者:louisfb01
編譯:ronghuaiyang
論文,代碼,解讀,還有demo視頻。
盡管今年世界上發(fā)生了這么多事情,我們還是有機(jī)會看到很多驚人的研究成果。特別是在人工智能更精確的說是計算機(jī)視覺領(lǐng)域。此外,今年還聚焦了許多重要的方面,比如倫理方面、重要的偏見等等。人工智能和我們對人類大腦及其與人工智能的聯(lián)系的理解在不斷發(fā)展,在不久的將來顯示出了有前途的應(yīng)用,這一點(diǎn)我一定會講到。
以下是我今年在計算機(jī)視覺領(lǐng)域最有趣的10篇研究論文,以免你錯過了其中的任何一篇。簡而言之,它基本上是一個關(guān)于人工智能和CV的最新突破的精選列表,配有清晰的視頻解釋、更深入的文章鏈接和代碼(如果適用的話)。好好享受吧,如果我在評論中漏掉了什么重要的論文,請告訴我,或者直接在LinkedIn上聯(lián)系我!
觀看完整的5分鐘計算機(jī)視覺2020回顧

視頻鏈接:https://youtu.be/CP3E9Iaunm4
完整的論文列表
Sea-thru: A Method For Removing Water From Underwater Images? Neural circuit policies enabling auditable autonomy? NeRV: Neural Reflectance and Visibility Fields for Relighting and View Synthesis? YOLOv4: Optimal Speed and Accuracy of Object Detection? PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models? Image GPT?-?Generative Pretraining from Pixels? DeepFaceDrawing: Deep Generation of Face Images from Sketches? PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization? RAFT: Recurrent All-Pairs Field Transforms for Optical Flow? Learning Joint Spatial-Temporal Transformations for Video Inpainting? Old Photo Restoration via Deep Latent Space Translation? Is a Green Screen Really Necessary for Real-Time Portrait Matting?? DeOldify?
Sea-thru: A Method For Removing Water From Underwater Images
你有沒有想過,如果沒有水,海洋會是什么樣子,去掉了這藍(lán)綠色的水下照片,仍然有珊瑚礁的真實(shí)顏色?利用計算機(jī)視覺和機(jī)器學(xué)習(xí)算法,Haifa大學(xué)的研究人員能夠做到這一點(diǎn)!
視頻短片:視頻鏈接:https://youtu.be/E1kffL4_AS8

論文解讀:https://medium.com/towards-artificial-intelligence/this-ai-removes-the-water-from-underwater-images-d277281bcd0f 論文鏈接:https://openaccess.thecvf.com/content_CVPR_2019/papers/Akkaynak_Sea-Thru_A_Method_for_Removing_Water_From_Underwater_Images_CVPR_2019_paper.pdf 代碼:https://github.com/jgibson2/sea-thru
Neural circuit policies enabling auditable autonomy
來自奧地利IST和麻省理工學(xué)院的研究人員已經(jīng)成功地使用一種新的人工智能系統(tǒng)訓(xùn)練了一輛自動駕駛汽車,該系統(tǒng)基于小動物的大腦,比如蟯蟲。他們只用幾個神經(jīng)元就能控制自動駕駛汽車,而流行的深度神經(jīng)網(wǎng)絡(luò)如inveptions、Resnets或VGG需要數(shù)百萬個神經(jīng)元。他們的網(wǎng)絡(luò)能夠完全控制一輛汽車,只需要使用由19個控制神經(jīng)元組成的75000個參數(shù),而不是數(shù)百萬個!
短片:https://youtu.be/wAa358pNDkQ

論文解讀:https://medium.com/towards-artificial-intelligence/a-new-brain-inspired-intelligent-system-drives-a-car-using-only-19-control-neurons-1ed127107db9 論文鏈接:https://www.nature.com/articles/s42256-020-00237-3.epdf?sharing_token=xHsXBg2SoR9l8XdbXeGSqtRgN0jAjWel9jnR3ZoTv0PbS_e49wmlSXvnXIRQ7wyir5MOFK7XBfQ8sxCtVjc7zD1lWeQB5kHoRr4BAmDEU0_1-UN5qHD5nXYVQyq5BrRV_tFa3_FZjs4LBHt-yebsG4eQcOnNsG4BenK3CmBRFLk%3D 代碼:https://github.com/mlech26l/keras-ncp
NeRV: Neural Reflectance and Visibility Fields for Relighting and View Synthesis
該方法能夠生成一個完整的三維場景,并能夠決定場景的照明。與以前的方法相比,所有這些都只需要非常有限的計算成本并得到了驚人的結(jié)果。
短片:https://youtu.be/ZkaTyBvS2w4

論文解讀:https://medium.com/what-is-artificial-intelligence/generate-a-complete-3d-scene-under-arbitrary-lighting-conditions-from-a-set-of-input-images-9d2fbce63243 論文鏈接:https://arxiv.org/abs/2012.03927 代碼:https://people.eecs.berkeley.edu/~pratul/nerv/
YOLOv4: Optimal Speed and Accuracy of Object Detection
這第4個版本由Alexey Bochkovsky等人于2020年4月在論文“YOLOv4: Optimal Speed and Accuracy of Object Detection”中介紹。該算法的主要目標(biāo)是在高精度方面做出一個高質(zhì)量的超高速目標(biāo)檢測器。
短片:https://youtu.be/CtjZFkO5RPw

論文解讀:https://medium.com/what-is-artificial-intelligence/the-yolov4-algorithm-introduction-to-you-only-look-once-version-4-real-time-object-detection-5fd8a608b0fa 論文鏈接:https://arxiv.org/abs/2004.10934 代碼:https://github.com/AlexeyAB/darknet
PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Model
這個新算法將模糊的圖像轉(zhuǎn)換成高分辨率的圖像!它可以把超低分辨率的16x16圖像轉(zhuǎn)換成1080p高清晰度的人臉!你不相信我?你就可以在不到一分鐘的時間里自己試一下!但首先,讓我們看看他們是怎么做到的。
短片:https://youtu.be/cgakyOI9r8M

論文解讀:https://medium.com/what-is-artificial-intelligence/this-ai-makes-blurry-faces-look-60-times-sharper-7fcd3b820910 論文鏈接:https://arxiv.org/abs/2003.03808 代碼:https://github.com/adamian98/pulse
Image GPT?-?Generative Pretraining from Pixels
一個好的人工智能,比如Gmail中使用的那個,可以生成連貫的文本并完成你的短語。這張圖片使用了同樣的原則來完成一張圖片!所有這些都是在無人監(jiān)督的訓(xùn)練中完成的,根本不需要任何標(biāo)簽!
短片:https://youtu.be/FwXQ568_io0

論文解讀:https://medium.com/towards-artificial-intelligence/this-ai-can-generate-the-pixels-of-half-of-a-picture-from-nothing-using-a-nlp-model-7d7ba14b5522 論文鏈接:https://openai.com/blog/image-gpt/ 代碼:https://github.com/openai/image-gpt
DeepFaceDrawing: Deep Generation of Face Images from Sketches
你現(xiàn)在可以使用這種新的圖像到圖像轉(zhuǎn)換技術(shù),從粗糙甚至不完整的草圖生成高質(zhì)量的人臉圖像,無需繪圖技巧!如果你的畫技和我一樣差,你甚至可以調(diào)整眼睛、嘴巴和鼻子對最終圖像的影響。讓我們看看它是否真的有效,以及他們是如何做到的。
短片:https://youtu.be/djXdgCVB0oM

論文解讀:https://medium.com/what-is-artificial-intelligence/ai-generates-real-faces-from-sketches-8ccbac5d2b2e 論文鏈接:http://geometrylearning.com/paper/DeepFaceDrawing.pdf 代碼:https://github.com/IGLICT/DeepFaceDrawing-Jittor
PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization
這個人工智能從2D圖像生成3D高分辨率的人的重建!它只需要一個單一你的圖像就可以生成一個3D頭像,看起來就像你,甚至從背后!
短片:https://youtu.be/ajWtdm05-6g

論文解讀:https://medium.com/towards-artificial-intelligence/ai-generates-3d-high-resolution-reconstructions-of-people-from-2d-images-introduction-to-pifuhd-d4aa515a482a 論文鏈接:https://arxiv.org/pdf/2004.00452.pdf 代碼:https://github.com/facebookresearch/pifuhd
RAFT: Recurrent All-Pairs Field Transforms for Optical Flow
ECCV 2020最佳論文獎授予普林斯頓團(tuán)隊(duì)。他們開發(fā)了一種新的端到端可訓(xùn)練的光流模型。他們的方法在多個數(shù)據(jù)集上超越了最先進(jìn)的架構(gòu)的準(zhǔn)確性,而且效率更高。
短片:https://youtu.be/OSEuYBwOSGI

論文解讀:https://medium.com/towards-artificial-intelligence/eccv-2020-best-paper-award-a-new-architecture-for-optical-flow-3298c8a40dc7 論文鏈接:https://arxiv.org/pdf/2003.12039.pdf 代碼:https://github.com/princeton-vl/RAFT
Learning Joint Spatial-Temporal Transformations for Video Inpainting
這個人工智能應(yīng)用可以填補(bǔ)移除了目標(biāo)之后丟失的像素,并使用更精確,更少模糊的方式重建整個視頻。
短片:https://youtu.be/MAxMYGoN5U0

論文解析:https://medium.com/towards-artificial-intelligence/this-ai-takes-a-video-and-fills-the-missing-pixels-behind-an-object-video-inpainting-9be38e141f46 論文鏈接:https://arxiv.org/abs/2007.10247 代碼:https://github.com/researchmm/STTN?utm_source=catalyzex.com
Old Photo Restoration via Deep Latent Space Translation
想象一下,你祖母18歲時的老照片,折疊的,甚至是被撕的,全部變成高清的,沒有任何手工痕跡的照片。這就是所謂的舊照片修復(fù),而這篇論文剛剛開辟了一個全新的途徑來解決這個問題,使用深度學(xué)習(xí)方法。
短片:https://youtu.be/QUmrIpl0afQ

論文解析:https://medium.com/towards-artificial-intelligence/old-photo-restoration-using-deep-learning-47d4ab1bdc4d 論文鏈接:https://arxiv.org/pdf/2009.07047.pdf 代碼:https://github.com/microsoft/Bringing-Old-Photos-Back-to-Life?utm_source=catalyzex.com
Is a Green Screen Really Necessary for Real-Time Portrait Matting?
人像摳圖是一項(xiàng)非常有趣的任務(wù),目標(biāo)是在照片中找到所有的人,然后把背景去掉。由于任務(wù)的復(fù)雜性,這真的很難實(shí)現(xiàn),必須找到一個或多個擁有完美輪廓的人。在這篇文章中,我回顧了多年來使用的最佳技術(shù),以及2020年11月29日發(fā)表的一篇新方法。許多技術(shù)使用基本的計算機(jī)視覺算法來實(shí)現(xiàn)這一任務(wù),例如GrabCut算法,它非???,但不是非常精確。
短片:https://youtu.be/rUo0wuVyefU

論文解讀:https://medium.com/datadriveninvestor/high-quality-background-removal-without-green-screens-8e61c69de63 論文鏈接:https://arxiv.org/pdf/2011.11961.pdf 代碼:https://github.com/ZHKKKe/MODNet
DeOldify
DeOldify是一種對黑白圖像甚至電影膠片進(jìn)行著色和還原的技術(shù)。它是由Jason Antic一人開發(fā)的,目前仍在進(jìn)行更新。它現(xiàn)在是給黑白圖像著色的最先進(jìn)的方法,而且所有的東西都是開源的,但是我們將會回到這一點(diǎn)上。
短片:https://youtu.be/1EP_Lq04h4M

論文解讀:https://medium.com/towards-artificial-intelligence/this-ai-can-colorize-your-black-white-photos-with-full-photorealistic-renders-deoldify-bf1eed5cb02a 代碼:https://github.com/jantic/DeOldify

英文原文:https://github.com/louisfb01/Top-10-Computer-Vision-Papers-2020
下載1:何愷明頂會分享
在「AI算法與圖像處理」公眾號后臺回復(fù):何愷明,即可下載。總共有6份PDF,涉及 ResNet、Mask RCNN等經(jīng)典工作的總結(jié)分析
下載2:終身受益的編程指南:Google編程風(fēng)格指南
在「AI算法與圖像處理」公眾號后臺回復(fù):c++,即可下載。歷經(jīng)十年考驗(yàn),最權(quán)威的編程規(guī)范!
下載3 CVPR2020 在「AI算法與圖像處理」公眾號后臺回復(fù):CVPR2020,即可下載1467篇CVPR?2020論文 個人微信(如果沒有備注不拉群!) 請注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱
覺得不錯就點(diǎn)亮在看吧

