2021 年了,機器/深度學習還有哪些坑比較好挖?
導讀
深度學習以及機器學習發(fā)展至今,涌入了大量的人才和資源,有很多方向已經(jīng)達到了一個瓶頸,短時間內(nèi)有非常大的突破有些難以實現(xiàn)。那么對于有學術要求與指標的學生來說,還有哪些方向可以去深挖呢?
# 回答一
作者:張趔趄
康奈爾大學 電子與計算機博士在讀
來源鏈接:https://www.zhihu.com/question/440538267/answer/1719126442
例如MRI掃描加速。在紐約,在醫(yī)院掃一次MRI,大概要2k刀左右,具體跟你需要的sequence還可能有關系。如果你能在不損失圖像質量和信息的情況下對其進行加速,將具備巨大的經(jīng)濟價值。想當年的compressed sensing和衍生出來的sparse representation,dictionary learning等在deep learning era之前的火爆程度,這不就說明這里面解決到的是fundamental的問題,其原理不僅可以加速MRI掃描,也可以被泛化應用到其他地方,從而產(chǎn)生很大的影響力。
又例如medical image reconstruction, 大多數(shù)這樣的問題都是ill-posed,傳統(tǒng)解法是formulate成一個優(yōu)化問題,加上一些constraint/prior,從而求解。然而這些圖像每個人掃出來的雖細節(jié)不一樣,但是呢大體結構又類似,那么如何讓深度/機器學習能更好的學習到prior然后來更快更好的解這些優(yōu)化問題呢?如果這個問題能被解決,那是不是可以直接應用到其他類似需要領域呢,
在醫(yī)學圖像里有一類優(yōu)化問題,自身存在結構,雖然from scratch去優(yōu)化可以得到正確的結果,但是深度學習是不是可以更好的去approximate這些優(yōu)化問題,利用自身的提取特征的能力來助力這些優(yōu)化?讓模型學習到這些結構,然后在之后的優(yōu)化中就可以進一步提升速度。讓深度網(wǎng)絡變成一個優(yōu)化器。比如我的一個co-authro Mert Sabuncu提出的VoxelMorph,用來深度學習來實現(xiàn)image registration; 比如另一個co-author,Jinwei提出的用fidelity loss來對沒有見過的數(shù)據(jù)進行refine.
又比如做medical image analysis的第一步,往往是對ROI進行segmentation,如何真正的利用人體結構的相似性來更好的讓模型學習到一些結構,而不是直接遷移一些自然圖像里的方法呢?
# 回答二
作者:微調
CMU博士在讀
來源鏈接:https://www.zhihu.com/question/440538267/answer/1717701231
最容易的就是做交叉application,算法A在任務B上的表現(xiàn)等。如果發(fā)會議就能畢業(yè)的話,ccf的c類會議里有相當一部分都有>40%接受率(ICANN,IJCNN,ICPR等),你魔改一點網(wǎng)絡結構去嘗試解決一個沒人在乎的問題,只要寫的別太拉胯就碩士畢業(yè)了。我舉一些不存在的例子,如何使用「魔改的RCNN」(這個可以替換為任何經(jīng)典模型)解決「室內(nèi)建筑通風能力預測」的問題。再來一個,如何集成「多個自編碼器」提升「圖片中太陽花」的檢測率。再來一個,如何用「自監(jiān)督學習」來發(fā)現(xiàn)「海洋圖片中的污染情況評估」。怎么找應用看你有沒有啥合適的數(shù)據(jù),有的話多的是腦洞應用。不行的話,翻翻這個答案隨便找點數(shù)據(jù):機器學習需要的大量數(shù)據(jù)集從哪里找?(https://www.zhihu.com/question/342295029/answer/915272899)其實這類沒啥意義的文章其實才是泛學術圈的主流,我們不鼓勵這類內(nèi)容,但也明白很多人只是為了畢業(yè),不丟人。
或者現(xiàn)在很多人也喜歡大規(guī)模的比較和benchmark,比如討論20種聚類算法在100個數(shù)據(jù)上的一些表現(xiàn)啥的。然后有些“驚人”的發(fā)現(xiàn),比如原來某個領域20年來都沒啥新進展。比如mlsys20上這篇arxiv.org/pdf/2003.0303 ,研究了81篇文章里的pruning的方法。
再來,就是做數(shù)據(jù)集,你去UCI上看看各種各樣的數(shù)據(jù)集,能不能把它們改成其他任務的。比如把分類任務改成聚類的,把回歸改成檢測。很多會議也喜歡新的數(shù)據(jù)集,尤其是大數(shù)據(jù)集,或者多個數(shù)據(jù)集。
的概率是正確的。# 回答三
作者:金雪鋒
MindSpore首席架構師
來源鏈接:https://www.zhihu.com/question/440538267/answer/1699917805

往期精彩:
【原創(chuàng)首發(fā)】機器學習公式推導與代碼實現(xiàn)30講.pdf
【原創(chuàng)首發(fā)】深度學習語義分割理論與實戰(zhàn)指南.pdf
點個在看
