<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          2020年計(jì)算機(jī)視覺技術(shù)最新學(xué)習(xí)路線總結(jié) (含時(shí)間分配建議)

          共 8349字,需瀏覽 17分鐘

           ·

          2020-08-27 20:41

          點(diǎn)擊上方AI算法與圖像處理”,選擇加"星標(biāo)"或“置頂”

          重磅干貨,第一時(shí)間送達(dá)

          本文轉(zhuǎn)載自:深度學(xué)習(xí)與計(jì)算機(jī)視覺

          介紹
          如今有大量的資源可以用來學(xué)習(xí)計(jì)算機(jī)視覺技術(shù),那我們?nèi)绾螐谋姸嘟坛讨羞M(jìn)行選擇呢?哪個(gè)值得我們?nèi)ネ度霑r(shí)間呢?
          如果你也遇到這些問題,那么恭喜你來對地方了。我們通過理解數(shù)百種資源來選擇值得你花費(fèi)時(shí)間的資源-這就是我們首先推出本文的主要原因之一。
          去年,我們廣泛地專注于兩個(gè)技術(shù)的學(xué)習(xí)方法——機(jī)器學(xué)習(xí)和深度學(xué)習(xí),但是我們的社區(qū)需要更細(xì)化的學(xué)習(xí)路徑——一個(gè)結(jié)構(gòu)化的計(jì)算機(jī)視覺學(xué)習(xí)路徑
          這是可以理解的,因?yàn)橛?jì)算機(jī)視覺專家的需求和價(jià)值在業(yè)界遙遙領(lǐng)先。專門研究計(jì)算機(jī)視覺及其不同方面,你會看到大量招聘人員試圖接近你。
          我記得當(dāng)我開始自己的計(jì)算機(jī)視覺之旅時(shí),我同時(shí)參考了多種資源——書籍、文章(當(dāng)時(shí)并不多)、YouTube視頻等等。
          因此,我很高興有機(jī)會為你整理這種結(jié)構(gòu)化的計(jì)算機(jī)視覺學(xué)習(xí)路徑。在開始學(xué)習(xí)之前,讓我們了解一下為簡化你的學(xué)習(xí)過程而構(gòu)建的框架。

          我們的計(jì)算機(jī)視覺學(xué)習(xí)路徑框架

          每個(gè)月都要有其對應(yīng)的學(xué)習(xí)結(jié)構(gòu),這是我們對每個(gè)月需要了解的不同方面進(jìn)行分類的方式:
          • 目標(biāo):這個(gè)月你會學(xué)到什么?關(guān)鍵要點(diǎn)是什么?你的計(jì)算機(jī)視覺之旅將如何進(jìn)行?我們會在每個(gè)月初提及此問題,以確保你知道該月底的立場以及所處的位置
          • 建議時(shí)間:你每周平均應(yīng)在該部分上花費(fèi)多少時(shí)間
          • 學(xué)習(xí)資源:該月你將學(xué)習(xí)的計(jì)算機(jī)視覺主題的頂級資源集合,其中包括文章,教程,視頻,研究論文和其他類似資源
          你可以在此處下載該學(xué)習(xí)路徑的相應(yīng)信息圖。
          • https://discuss.analyticsvidhya.com/t/heres-your-learning-path-to-master-computer-vision-in-2020/87785
          在數(shù)據(jù)科學(xué)領(lǐng)域?qū)ふ移渌麑W(xué)習(xí)途徑?別擔(dān)心,我們?yōu)槟闾峁┝耍?/span>
          • 2020年成為數(shù)據(jù)科學(xué)家和掌握機(jī)器學(xué)習(xí)的學(xué)習(xí)之路
            • https://www.analyticsvidhya.com/blog/2020/01/learning-path-data-scientist-machine-learning-2020
          • 2020年掌握深度學(xué)習(xí)的學(xué)習(xí)道路
            • https://www.analyticsvidhya.com/blog/2020/01/comprehensive-learning-path-deep-learning-2020
          • 自然語言處理(NLP)學(xué)習(xí)路徑
            • https://www.analyticsvidhya.com/blog/2020/01/learning-path-nlp-2020

          第1個(gè)月 – 涵蓋基礎(chǔ)知識:Python與統(tǒng)計(jì)

          目標(biāo):到第一個(gè)月末,你將對什么是計(jì)算機(jī)視覺有基本的了解。你還將對Python和Statistics(計(jì)算機(jī)視覺之旅中的兩個(gè)核心主題)有一定的知識儲備。
          建議時(shí)間:每周5-6小時(shí)
          計(jì)算機(jī)視覺的介紹和動(dòng)機(jī):SAS計(jì)算機(jī)視覺教程:它是什么,它為什么重要:https://www.sas.com/en_in/insights/analytics/computer-vision.html

          OpenCV中文官方教程v4.1(可選):

          http://woshicver.com

          先決條件
          Python:Analytics Vidhya撰寫的Python課程
          • https://courses.analyticsvidhya.com/courses/introduction-to-data-science
          統(tǒng)計(jì):可汗學(xué)院的描述性統(tǒng)計(jì)
          • https://www.khanacademy.org/math/engageny-alg-1/alg1-2

          第2個(gè)月 – 使用機(jī)器學(xué)習(xí)解決圖像分類問題

          目標(biāo):你將對機(jī)器學(xué)習(xí)有基本的了解。你應(yīng)該熟悉不同的圖像預(yù)處理技術(shù),并能夠使用機(jī)器學(xué)習(xí)模型解決圖像分類問題。
          建議時(shí)間:每周5-6小時(shí)
          機(jī)器學(xué)習(xí)基礎(chǔ)
          • 機(jī)器學(xué)習(xí)基礎(chǔ)
            • https://www.analyticsvidhya.com/blog/2015/06/machine-learning-basics/
          • sklearn中文官方教程0.22.1(可選):
            • http://sklearn123.com
          • 線性回歸
            • https://www.analyticsvidhya.com/blog/2017/06/a-comprehensive-guide-for-linear-ridge-and-lasso-regression/
          • 邏輯回歸
            • https://www.analyticsvidhya.com/blog/2015/10/basics-logistic-regression/
          • 斯坦福大學(xué)-機(jī)器學(xué)習(xí)的動(dòng)機(jī)與應(yīng)用
            • https://see.stanford.edu/Course/CS229/47
          • 斯坦福大學(xué)的“過擬合”和“過擬合”的概念
            • https://see.stanford.edu/Course/CS229/42
            圖像預(yù)處理:
            • 從圖像中提取特征的3種技術(shù)
              • https://www.analyticsvidhya.com/blog/2019/08/3-techniques-extract-features-from-image-data-machine-learning-python/
            • HOG特征
              • https://www.analyticsvidhya.com/blog/2019/09/feature-engineering-images-introduction-hog-feature-descriptor/
            • SIFT特征
              • https://www.analyticsvidhya.com/blog/2019/10/detailed-guide-powerful-sift-technique-image-matching-python/
            使用機(jī)器學(xué)習(xí)進(jìn)行圖像分類:
            • 使用邏輯回歸進(jìn)行圖像分類
              • https://www.kaggle.com/gulsahdemiryurek/image-classification-with-logistic-regression
            • 使用Logistic回歸進(jìn)行圖像分類
              • https://mmlind.github.io/Using_Logistic_Regression_to_solve_MNIST/
            項(xiàng)目:識別服裝
            • https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-apparels/

            第三個(gè)月 – ?Keras和神經(jīng)網(wǎng)絡(luò)簡介

            目標(biāo):你將學(xué)習(xí)最常用的深度學(xué)習(xí)工具之一-Keras,你還將了解什么是神經(jīng)網(wǎng)絡(luò)以及它們?nèi)绾喂ぷ鳎饺碌祝銓⒛軌蚴褂蒙窠?jīng)網(wǎng)絡(luò)解決圖像分類問題。
            建議時(shí)間:每周4-5小時(shí)
            學(xué)習(xí)Keras
            • Keras文檔
              • https://keras.io/
            • 使用Keras構(gòu)建神經(jīng)網(wǎng)絡(luò)
              • https://www.analyticsvidhya.com/blog/2016/10/tutorial-optimizing-neural-networks-using-keras-with-image-recognition-case-study/
            神經(jīng)網(wǎng)絡(luò)簡介
            • 從零開始的神經(jīng)網(wǎng)絡(luò)
              • https://www.analyticsvidhya.com/blog/2017/05/neural-network-from-scratch-in-python-and-r/
            • 斯坦福大學(xué)神經(jīng)網(wǎng)絡(luò)簡介
              • https://youtu.be/d14TUNcbn1k
            • 3Blue1Brown的神經(jīng)網(wǎng)絡(luò):
              • https://youtu.be/aircAruvnKk
            項(xiàng)目:識別服裝
            • https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-apparels/

            第4個(gè)月 – 了解卷積神經(jīng)網(wǎng)絡(luò)(CNN),遷移學(xué)習(xí)和參加比賽

            目標(biāo):我想將其稱為計(jì)算機(jī)視覺之旅中的“進(jìn)階”月份。隨著卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的引入,學(xué)習(xí)也更上一層樓,這些cnn是我們最近看到的許多計(jì)算機(jī)視覺應(yīng)用的幕后推手,包括目標(biāo)檢測。在你的旅程中,你也應(yīng)該通過參加比賽來鍛煉自己。
            建議時(shí)間:每周6-7小時(shí)
            卷積神經(jīng)網(wǎng)絡(luò)(CNN)簡介
            • 卷積神經(jīng)網(wǎng)絡(luò)(CNN)簡化
              • https://www.analyticsvidhya.com/blog/2017/06/architecture-of-convolutional-neural-networks-simplified-demystified
            • 斯坦福大學(xué)的卷積神經(jīng)網(wǎng)絡(luò):
              • https://youtu.be/bNb2fEVKeEo
            遷移學(xué)習(xí)簡介
            • 掌握遷移學(xué)習(xí)
              • https://www.analyticsvidhya.com/blog/2017/06/transfer-learning-the-art-of-fine-tuning-a-pre-trained-model
            • 斯坦福大學(xué)實(shí)踐中的ConvNets:
              • https://youtu.be/dUTzeP_HTZg
            項(xiàng)目:識別數(shù)字:https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-digits
            參加比賽:
            • DataHack
              • https://datahack.analyticsvidhya.com/contest/all
            • Kaggle
              • https://www.kaggle.com/competitions

            第5個(gè)月 – 解決對象檢測問題

            目標(biāo):對象檢測是一種廣泛使用的計(jì)算機(jī)視覺技術(shù)(也許是使用最廣泛的技術(shù))。這是吸引我使用計(jì)算機(jī)視覺的原因!這個(gè)月就是要熟悉不同的對象檢測算法。另外,我強(qiáng)烈建議你撰寫到目前為止所學(xué)概念的文章。
            建議時(shí)間:每周6-7小時(shí)
            解決對象檢測問題
            • 目標(biāo)檢測技術(shù)的分步介紹
              • https://www.analyticsvidhya.com/blog/2018/10/a-step-by-step-introduction-to-the-basic-object-detection-algorithms-part-1
            • 實(shí)現(xiàn)faster RCNN用于目標(biāo)檢測
              • https://www.analyticsvidhya.com/blog/2018/11/implementation-faster-r-cnn-python-object-detection
            • 使用YOLO進(jìn)行物體檢測
              • https://www.analyticsvidhya.com/blog/2018/12/practical-guide-object-detection-yolo-framewor-python
            • 斯坦福大學(xué)的物體檢測:
              • https://youtu.be/nDPWywWRIRo
            • YOLO論文
              • https://arxiv.org/pdf/1506.02640.pdf
            • YOLO預(yù)訓(xùn)練模型
              • https://pjreddie.com/darknet/yolo/
            項(xiàng)目
            • 數(shù)臉挑戰(zhàn)
              • https://datahack.analyticsvidhya.com/contest/vista-codefest-computer-vision-1
            • COCO物體檢測挑戰(zhàn)
              • http://cocodataset.org/#download
            開始撰寫文章,與社區(qū)互動(dòng)吧!

            第6個(gè)月 – 了解圖像分割和注意力模型

            目標(biāo):六月,你將學(xué)習(xí)如何解決圖像分割問題,同時(shí)你還將了解什么是注意力模型(無論在理論上還是在實(shí)踐上)。在這里,你對計(jì)算機(jī)視覺的深入了解才真正開始獲得回報(bào)。
            建議時(shí)間:每周6-7小時(shí)
            圖像分割簡介:
            • 圖像分割技術(shù)的分步介紹
              • https://www.analyticsvidhya.com/blog/2019/04/introduction-image-segmentation-techniques-python
            • 實(shí)現(xiàn)Mask R-CNN進(jìn)行圖像分割
              • https://www.analyticsvidhya.com/blog/2019/07/computer-vision-implementing-mask-r-cnn-image-segmentation
            • Mask R-CNN論文
              • https://arxiv.org/pdf/1703.06870.pdf
            • Mask R-CNN GitHub存儲庫
              • https://github.com/matterport/Mask_RCNN
            項(xiàng)目:COCO分割挑戰(zhàn)
            • http://cocodataset.org/#download
            Attention 模型
            • Sequence-to-Sequence Modeling with Attention
              • https://www.analyticsvidhya.com/blog/2018/03/essentials-of-deep-learning-sequence-to-sequence-modelling-with-attention-part-i
            • Sequence-to-Sequence Models by Stanford
              • https://nlp.stanford.edu/~johnhew/public/14-seq2seq.pdf

            第7個(gè)月 – 探索深度學(xué)習(xí)工具

            目標(biāo):這是一個(gè)非常有趣的學(xué)習(xí)月!到目前為止,我們已經(jīng)涵蓋了許多計(jì)算機(jī)視覺概念,現(xiàn)在是時(shí)候動(dòng)手使用最先進(jìn)的深度學(xué)習(xí)框架了!這取決于你自己的選擇,但我們建議你現(xiàn)在使用行業(yè)中最常見的兩種工具——PyTorch和TensorFlow。嘗試使用這兩種工具中的任何一種來實(shí)現(xiàn)你到目前為止所涵蓋的所有概念。
            建議時(shí)間:每周6-7小時(shí)
            PyTorch:
            • PyTorch教程
              • https://pytorch.org/tutorials/
            • PyTorch的初學(xué)者友好指南
              • https://www.analyticsvidhya.com/blog/2019/09/introduction-to-pytorch-from-scratch
            • PyTorch中文官方教程(可選)
              • http://pytorch123.com

            TensorFlow:

            • TensorFlow教程
              • https://www.tensorflow.org/tutorials
            • TensorFlow簡介
              • https://www.analyticsvidhya.com/blog/2016/10/an-introduction-to-implementing-neural-networks-using-tensorflow

            第8個(gè)月 – 了解NLP和圖像字幕的基礎(chǔ)

            目標(biāo):這是你專業(yè)化的開始。這是將你的深度學(xué)習(xí)知識與自然語言處理(NLP)概念結(jié)合起來來解決圖像字幕項(xiàng)目。
            建議時(shí)間:每周6-7小時(shí)
            自然語言處理(NLP)的基礎(chǔ)知識:
            • 斯坦福-詞嵌入:
              • https://youtu.be/ERibwqs9p38
            • 遞歸神經(jīng)網(wǎng)絡(luò)(RNN)簡介:
              • https://youtu.be/UNmqTiOnRfg
            • RNN教程
              • http://www.wildml.com/2015/10/recurrent-neural-networks-tutorial-part-3-backpropagation-through-time-and-vanishing-gradients/
            了解圖像字幕
            • 自動(dòng)圖像字幕
              • https://cs.stanford.edu/people/karpathy/sfmltalk.pdf
            • 使用深度學(xué)習(xí)的圖像字幕
              • https://www.analyticsvidhya.com/blog/2018/04/solving-an-image-captioning-task-using-deep-learning
            項(xiàng)目:COCO字幕挑戰(zhàn)賽
            • http://cocodataset.org/#download

            第9個(gè)月 – 熟悉生成對抗網(wǎng)絡(luò)(GAN)

            目標(biāo):9月,你將了解生成對抗網(wǎng)絡(luò)(GAN)。自從Ian Goodfellow于2014年正式推出GAN以來,GANs就火爆了起來。目前,GANs的實(shí)際應(yīng)用很多,包括修復(fù)、生成圖像等。
            建議時(shí)間:每周6-7小時(shí)
            了解生成對抗網(wǎng)絡(luò)(GAN):
            • Ian Goodfellow的生成對抗網(wǎng)絡(luò)(GAN):
              • https://youtu.be/HGYYEUSm-0Q
            • GAN 論文
              • https://arxiv.org/pdf/1406.2661.pdf
            • 生成對抗網(wǎng)絡(luò)的最新進(jìn)展
              • https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8667290
            • Keras-GAN
              • https://github.com/eriklindernoren/Keras-GAN

            第10個(gè)月 – 視頻分析簡介

            目標(biāo):視頻分析是計(jì)算機(jī)視覺中一個(gè)蓬勃發(fā)展的應(yīng)用。到2020年(及以后),對這項(xiàng)技能的需求只增不減,因此學(xué)習(xí)如何使用視頻數(shù)據(jù)集的知識是必要的。
            建議時(shí)間:每周5-6小時(shí)
            視頻分析簡介:
            • 計(jì)算視頻中演員的放映時(shí)間
              • https://www.analyticsvidhya.com/blog/2018/09/deep-learning-video-classification-python
            • 建立視頻分類模型
              • https://www.analyticsvidhya.com/blog/2019/09/step-by-step-deep-learning-tutorial-video-classification-python
            • 通過視頻進(jìn)行人臉檢測
              • https://www.analyticsvidhya.com/blog/2018/12/introduction-face-detection-video-deep-learning-python

            第11個(gè)月和第12個(gè)月 – 解決項(xiàng)目并參加競賽

            目標(biāo):最后兩個(gè)月都是關(guān)于參加多個(gè)項(xiàng)目和競賽來獲得實(shí)踐經(jīng)驗(yàn)的。到目前為止,我們除了學(xué)習(xí)概念外,還涵蓋了多個(gè)項(xiàng)目——現(xiàn)在是時(shí)候在真實(shí)的數(shù)據(jù)集上檢驗(yàn)?zāi)愕膶W(xué)習(xí)成果了。
            建議時(shí)間:每周5-6小時(shí)
            • 數(shù)字識別器
              • https://www.kaggle.com/c/digit-recognizer
            • ImageNet對象定位挑戰(zhàn)
              • https://www.kaggle.com/c/imagenet-object-localization-challenge
            • 年齡檢測
              • https://datahack.analyticsvidhya.com/contest/practice-problem-age-detection
            • 空中仙人掌鑒定
              • https://www.kaggle.com/c/aerial-cactus-identification
            • 超聲神經(jīng)分割
              • https://www.kaggle.com/c/ultrasound-nerve-segmentation
            • 對抗性攻擊防御
              • https://www.kaggle.com/c/nips-2017-defense-against-adversarial-attack/overview

            信息圖– 2020年計(jì)算機(jī)視覺學(xué)習(xí)之路

            學(xué)習(xí)新事物時(shí)跟蹤進(jìn)度是結(jié)構(gòu)化學(xué)習(xí)過程的關(guān)鍵。為了方便在深入研究領(lǐng)域時(shí)勾選所有事項(xiàng)。還有什么比一個(gè)有插圖的清單更好的呢?它逐月列出了計(jì)算機(jī)視覺學(xué)習(xí)的路徑,請看下圖:
            參考鏈接:https://www.analyticsvidhya.com/blog/2020/01/computer-vision-learning-path-2020/

            下載1:動(dòng)手學(xué)深度學(xué)習(xí)


            AI算法與圖像處公眾號后臺回復(fù):動(dòng)手學(xué)深度學(xué)習(xí),即可下載547頁《動(dòng)手學(xué)深度學(xué)習(xí)》電子書和源碼。該書是面向中文讀者的能運(yùn)行、可討論的深度學(xué)習(xí)教科書,它將文字、公式、圖像、代碼和運(yùn)行結(jié)果結(jié)合在一起。本書將全面介紹深度學(xué)習(xí)從模型構(gòu)造到模型訓(xùn)練,以及它們在計(jì)算機(jī)視覺和自然語言處理中的應(yīng)用。



            下載2
            AI算法與圖像處公眾號后臺回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講即可下載20個(gè)有趣的OpenCV實(shí)戰(zhàn)項(xiàng)目
            個(gè)人微信(如果沒有備注不拉群!
            請注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱

            瀏覽 56
            點(diǎn)贊
            評論
            收藏
            分享

            手機(jī)掃一掃分享

            分享
            舉報(bào)
            評論
            圖片
            表情
            推薦
            點(diǎn)贊
            評論
            收藏
            分享

            手機(jī)掃一掃分享

            分享
            舉報(bào)
            <kbd id="afajh"><form id="afajh"></form></kbd>
            <strong id="afajh"><dl id="afajh"></dl></strong>
              <del id="afajh"><form id="afajh"></form></del>
                  1. <th id="afajh"><progress id="afajh"></progress></th>
                    <b id="afajh"><abbr id="afajh"></abbr></b>
                    <th id="afajh"><progress id="afajh"></progress></th>
                    在线a亚洲v五码视频 | 男人的天堂成人片 | 少妇资源网 | 日本视频不卡不卡 | 国产高清黄色电影 |