<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          你是什么時候對深度學習失去信心的?

          共 3962字,需瀏覽 8分鐘

           ·

          2022-08-26 04:04

          點擊上方視學算法”,選擇加"星標"或“置頂

          重磅干貨,第一時間送達

          作者丨霍華德、愛睡覺的KKY、信息門上飛二哈(已授權)
          來源丨h(huán)ttps://www.zhihu.com/question/544763123
          編輯丨極市平臺
          二次轉載須經(jīng)原作者授權

          導讀

           

          越做越自閉,各種魔改的網(wǎng)絡自己用起來根本不work 。各類文章報告的結果和自己用他們的模型文件跑的完全不一樣,難道深度學習真的變成一門煉金術了嗎?”

          # 回答一

          作者:霍華德

          來源鏈接:https://www.zhihu.com/question/544763123/answer/2613151319

          早就有些碎碎念了,隨便寫寫,不一定有啥邏輯。

          對于深度學習的現(xiàn)狀,工業(yè)界還是很清楚的。如果沒有變革性的突破,弱人工智能時代的范式應該基本就要確定了。

          大模型 + 拖拖樂

          基本范式就是 大模型 + 拖拖樂,下游少量數(shù)據(jù)微調,在前端表現(xiàn)為拖拖樂形成DAG,自動生產(chǎn)模型。拖拖樂平臺,各大云廠商都有提供,如阿里的PAI,騰訊的Ti平臺、華為的ModelArts,亞馬遜的SageMaker等等

          對于大模型,各種網(wǎng)絡魔改價值很有限,因為數(shù)據(jù)上去后,假設越少越好,偏置歸納越少越好,這就使得模型越樸素越好。

          大模型也會成為各大公司的核心資產(chǎn),所有數(shù)據(jù)向大模型匯聚,試圖記下互聯(lián)網(wǎng)上的一切數(shù)據(jù)。然后,一鍵蒸餾小模型,一鍵剪枝,一鍵壓縮,一鍵部署,一鍵一條龍。

          深度學習規(guī)則化

          越來越覺得,深度學習變成一種數(shù)據(jù)驅動的規(guī)則,一個模型就是一個規(guī)則。傳統(tǒng)規(guī)則引擎里各種if-else,全靠程序員啟發(fā)式完成。

          深度學習規(guī)則引擎,每個規(guī)則就是個小模型。全靠算法工程師,使用數(shù)據(jù)驅動的方式訓練完成。

          之前大家覺得,一個強力模型包打天下?,F(xiàn)在看來,更務實的方式的,無數(shù)小模型,組合沖擊,往往效果更佳。

          這就使得,原本深度學習被詬病可解釋性問題,其實不再是問題。因為從業(yè)務頂層已經(jīng)被拆分,拆分成一個個可以被人理解的因子,無法被合理解釋的因子,項目啟動的評審都無法通過。

          就我熟悉的視頻理解來說吧,原本以為一個強大模型,學習所有數(shù)據(jù),出一個強力分數(shù),然后用這個分數(shù)搞定一切。但這樣的模型背后的黑箱,無法被接受。

          現(xiàn)在,視頻被從非常多個維度切分,視頻清晰度、視頻美觀度、視頻有沒有l(wèi)og,視頻有沒有涉黃,視頻有沒有涉政,是不是ppt視頻,有沒有被剪裁過,有沒有黑邊。所有這些子任務都不需要多強的模型,更重要的是數(shù)據(jù)。

          顯著的 > 隱含的

          另外一個感悟是,顯著的優(yōu)于隱含的,字幕就是優(yōu)于打標簽,OCR識別優(yōu)于各種分類、檢索、生成。因為字幕就是最顯著的,其他信息都是隱含的,通過模型推測出來的。

          這就產(chǎn)生了一個固有矛盾。在學術界,隱含的才是有難度的,才是有研究價值的,例如視頻動作識別,一定要從連續(xù)的動作中理解出到底在干啥。但在工業(yè)界,這樣的任務就非常難用。工業(yè)界喜歡顯著的,因為問題最少。

          這樣的分野,會使得工業(yè)界和學術界關心的問題,慢慢發(fā)生分歧,不知道是好是壞。

          刀耕火種的時代過去了

          過去,算法工程師們耕作著一畝三分地,或經(jīng)營著一個個手工作坊,面向業(yè)務營業(yè)。但顯然刀耕火種和手工作坊時代要過去了。大型收割機已經(jīng)進入農(nóng)田,制造業(yè)工廠已經(jīng)拔地而起,里面是一條條模型流水線。這就是生產(chǎn)力的發(fā)展,勢不可擋。

          但就像失去土地的農(nóng)民,失去作坊的工匠,下步又該何去何從?

          技能閉環(huán),還是深耕?

          我能想到的大概兩個方向。

          一個是往大模型深耕,成為大模型專家,在公司內(nèi)守住一個領域的大模型。或者帶著自己大模型的技能,到其他地方去用大模型降維打擊。但其實能用起的大模型的地方,可能不會很多,訓練的成本就很高。

          一個是技能閉環(huán),或者說就是全?;a充后臺、前端、大數(shù)據(jù)、產(chǎn)品的知識,爭取獲得獨立打造產(chǎn)品的能力。這樣能降低被螺絲釘化的風險。


          # 回答一

          作者:愛睡覺的KKY

          來源鏈接:https://www.zhihu.com/question/544763123/answer/2620368484

          讓你失去信心的不是深度學習,是你自己,換個其他領域,你依然會跑來問類似問題。
          1. 魔改網(wǎng)絡網(wǎng)絡不work? 一個猴子+無限打印機也能寫出李白的詩,有價值嗎?沒有任何思路的亂摸改也沒有任何價值,理想時間內(nèi)你也不會有任何work的結果。
          2. 各類文章報告的結果和自己用他們的模型文件跑的完全不一樣?你在垃圾堆里面翻垃圾當然找不到好東西,huggineface transformers/ timm / mmdetection 這些庫,無論是官方權重還是repo自己訓練的權重,都能正常工作并且達到預期性能。
          現(xiàn)在隨便找一個NLP的基準任務,用2022年模型不是吊打BERT前的模型?深度學習沒發(fā)展能吊打嗎?BERT前也許太古早了,就說BERT類模型,絕大部分任務性能都是 deberta > roberta > bert ,這個性能提升不是只停留在論文表格里面,是大家工作、比賽、科研下游任務廣泛實踐得到的結論,是真真切切的提升。
          實踐才是檢驗真理的唯一標準,Kaggle上每年CV/NLP比賽的Top Model一樣嗎?你用之前的模型就是打不贏今年的SOTA,你告訴我沒提升?那有本事不用BERT類模型拿個NLP比賽winner給我看看,我自費給你雙倍獎金。
          也有拿數(shù)據(jù)說事情的,數(shù)據(jù)當然重要,但是你用一個LR,你告訴我,給你無限的數(shù)據(jù)你能翻天嗎?金子埋在數(shù)據(jù)里面,挖不到也不是你的,對不對?
          每個研究都遵循邊際效應,大家發(fā)現(xiàn)DL性能和數(shù)據(jù)size 正相關,用更多的數(shù)據(jù)不是應有之義嗎?有標簽數(shù)據(jù)用完了,最近SimCLR/Moco/BERT等無監(jiān)督/自監(jiān)督不也開始發(fā)展了嗎?尊重下客觀事實好不好。
          現(xiàn)在的問題不是DL信心的問題,是大量小眾領域根本就在亂搞,特別是一些交叉領域。
          1. 小的可憐的數(shù)據(jù)集,甚至不具備online test ,研究者直接本地test 他公平嗎?沒水分嗎?
          2. 沒有很強的benchmark ,大量低水平重復工作滾來滾去,哪怕是沒水分的實驗,benchmark就是個水貨,比來比去沒啥意義。
          3. 開源問題,開源了代碼& model weight的大部分工作基本還是靠譜的,但是大量的工作沒有開源,水分太多,特別是交叉領域(醫(yī)學、土木、網(wǎng)絡等交叉DL去做的)。
          4. 領域泡沫,DL火了,涌入了大量人來做,水平不錯的自然推進了領域發(fā)展,但是信噪比明顯低了,平均值下降了。
          我的建議是,多找自己的問題,優(yōu)先選擇有大型且廣泛認可數(shù)據(jù)集、benchmark的領域。



          # 回答一

          作者:信息門上飛二哈

          來源鏈接:https://www.zhihu.com/question/544763123/answer/2614562631

          我覺得dl依然還是很有潛力可挖的,只不過很多人眼光太窄了,總是在已經(jīng)被很多人做過的task上面對已經(jīng)相對成熟的框架做小修小補。其實dl還有很多潛在的可能,只不過需要針對新的場景去設計全新的方法和框架。
          其實我也沒覺得DL就是AI的終極答案了,但DL的發(fā)展一定是帶動我們朝AI在前進的。即便不是artificial intelligence,那也可以是assistive intelligence。反正對我來說,我是認為智能這東西至少是包括了基于經(jīng)驗主義的直覺還有純粹理性的邏輯推理,DL可能更偏向于前者一些。
          不過在心中最重要的是,這十年dl的發(fā)展也讓我們對過去做AI的思路有一個反思,就是很多時候end2end十分強大,過分追求中間每一步的結果都對應明確的概念反而會導致誤差的累積。當然end2end不一定適合所有的場景,這需要我們仔細的去分析需求和客觀條件。如果把AI(其實可以推廣到各種科學問題上去)看成一個從某種observation中recover諸如semantic/structure information的inverse problem的話,那nn作為提取對應信息的數(shù)字化描述的提取器,甚至是nn自身作為descriptor,其本身完全可微且可以擬合復雜函數(shù)/關系的特性,十分適合end2end的框架。nn的另一個強大性質就是,在我們根據(jù)數(shù)目有限的observation去進行推斷的時候,nn作為一個過參數(shù)的模型能夠提供很好的泛化性能,這和以前認知中越復雜的模型越容易過擬合是相反的,所以這也是為什么nn會在很多領域一下讓人拋棄了以前的模型。
          但nn的問題在于它基本只能做prediction,而且即便是相同分布下的其他采樣也不能保證百分百正確。而人類的高級智能其實是能夠從大量的天文觀測中抽象出萬有引力定律的公式化描述,然后這個描述在相同尺度下適用于宇宙中的各個系統(tǒng)。但DL顯然沒這個能力,DL更像是托勒密那樣添了一堆本輪去近似觀測的結果,雖然也大差不差,但終究只是直覺的擬合,而不是嚴密邏輯下產(chǎn)生的放之四海而皆準的客觀規(guī)律。但其實對于很多問題,我們很難從嚴密的邏輯出發(fā)去得到一種像牛頓力學那樣簡約的公理化體系,典型的就是cv和nlp,因為在從客觀實體/關系投影產(chǎn)生觀測的階段牽扯了太多難以描述的噪聲。nn能處理好這些問題其實已經(jīng)遠遠超過了人類簡單的形式化邏輯的能力了。而且我是認為很多問題能夠做到錯誤率在容忍范圍內(nèi)的prediction其實也夠用了。當然自動駕駛不在其中,我一直對完全基于DL的全自動駕駛十分懷疑。
          所以與其說我依然看好dl的發(fā)展,倒不如說我認為end2end的思路和gradient的威力并沒有被各個不同領域完全探索。雖然梯度的求解只涉及看上去挺簡單的牛頓法,但我是覺得梯度的威力在很多cv/nlp之外的很多領域里面并沒有被完全的利用到,而這并不局限于cs的研究。


          點個在看 paper不斷!

          瀏覽 43
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚洲A片一区二区三区电影网 | 日本亲子乱婬A片C0m | 黄色以及电影毛片 | 一区二区三区精品无码 | 黄色免费高清视频 |