圖靈獎得主Hinton:不出五年,我們就會破解大腦的運作機制

三十年多前Hinton提出反向傳播算法,而今天他深信反向傳播「根本不像大腦」。
編輯 | 陳彩嫻
過去十年,AI 在計算機視覺、語音識別、機器翻譯、機器人、醫(yī)學、計算生物學、蛋白質(zhì)折疊預測等等領域取得了一個又一個突破,而這些突破的背后,均離不開深度學習。那么,深度學習起源于何時何地,又在何時成為最突出的AI方法?
最近,UC伯克利教授、深度學習專家Pieter Abbeel在其播客節(jié)目《機器人大腦》(Robot Brains)中,對Geoffrey Hinton進行了一次訪談。
曾獲得2018年圖靈獎的Hinton,被稱為「深度學習三巨頭」之一,是人工智能史上最重要的學者之一。他的論文被引用了50多萬次,這意味著,有50萬篇以上的研究論文是建立在他的研究之上。
他在深度學習領域已經(jīng)研究了大約半個世紀,大部分時間相對默默無聞,但在2012年,事情發(fā)生了轉折:那一年,憑借AlexNet在ImageNet比賽的勝出,他證明了深度學習在圖像識別方面比其他計算機視覺的方法具備更大的優(yōu)勢。這被稱為「ImageNet時刻」,改變了整個AI領域,掀起了深度學習的浪潮。
在這次對話中,Hinton講述了他從學術界到谷歌大腦的工作經(jīng)歷、學習心理學和當木匠的經(jīng)歷,以及可視化技術t-SNE算法背后的歷史,并就一些問題發(fā)表了他的觀點,包括:
現(xiàn)有的神經(jīng)網(wǎng)絡和反向傳播算法與大腦的運作方式有何不同?
為什么我們需要無監(jiān)督的局部目標函數(shù)?
睡眠和玻爾茲曼機的功能是什么?
為什么培育計算機比制造計算機更好?
為什么需要負面數(shù)據(jù)?
如今的大規(guī)模語言模型真正理解了語言嗎?
……
AI科技評論在不改變原意的基礎上對他們的訪談作了編輯與整理:

1
反向傳播不同于人腦運作方式

2
人腦尖峰神經(jīng)元 vs. GPU人工神經(jīng)元
3
AlexNet的誕生背景
4
從學術界到谷歌
5
非永生計算機:
成本低,通過學習獲取知識
6
大規(guī)模語言模型在
多大程度上理解了語言

7
玻爾茲曼機、知識蒸餾與t-SNE降維算法



視頻鏈接:
https://www.youtube.com/watch?v=2EDP4v-9TUA
END

愛奇藝往事:多少過錯,多少錯過

離開豆瓣的日子

RISC-V 中國創(chuàng)世記
