<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          人工智能是不是走錯了方向?

          共 19427字,需瀏覽 39分鐘

           ·

          2022-07-15 19:55

          人工智能是不是走錯了方向?


          1. 我不信大腦每天都在大量的傅里葉變換,來處理視覺和聲音數據。

          2. 我不信大腦每天都在大量的模型訓練或卷積,來深度學習認識一個東西。

          3. 小孩子不需要喂很多數據,看兩三次就能認識什么是蘋果,什么是橘子 (雖然不理解為什么是)。

          4. 神經元再少的動物,學習任何方向的任務都有主動性,而目前人工智能學習某一方向只是受控。

          5. 人類大腦也是電信號,但總感覺絕對不只是 0和1這種 二進制,是模擬信號嗎?

          我承認目前數學算法這種方向的人工智能,在生活中絕對有使用場景。

          但要做出一個有主動思想的人工智能,基于目前馮·諾依曼架構的計算機,是否是無法實現?我們是否從根源方向就錯了?

          靈劍(曠視科技 Face++)回答:


          你沒搞明白,很多數學方法本來就是在嘗試模擬人眼和人耳的特性,比如說短時傅里葉變換,原理在于人的聽覺產生于來自于耳蝸的器官,它本身就是個頻率感受器官,它在物理上主要是一個共振頻率不斷變換的膜加上感受器組成的,聲波傳進來的時候,根據頻率會在不同部位共振,感受器則主要感受共振強度,所以從耳朵接收到的信號本身就是頻譜,傅立葉變換只是為了模擬這個過程,因為實際上人對頻率的敏感度并不是和頻率成線性關系,所以后來又有了梅爾頻標,都是為了盡量和人耳的特性相近。


          視覺也是類似的,感光細胞和視神經的連接方式有一種中心抑制的作用,當一整片細胞都接受到光的時候,這種連接方式會抑制中心的感應強度而增強邊緣的感受強度,從而增加人眼對邊緣和運動的敏感程度,這種操作可以用卷積運算來模擬,所以卷積才廣泛應用于機器視覺領域,因為它本來就是存在于真實的人眼結構里的。


          深度學習神經網絡本來處理的也都是實數,1bit的網絡并不是主流。

          深度神經網絡原理肯定跟人腦不完全相同,那是因為底層計算的架構就是不一樣的,但沒有任何理由說人腦就是唯一可能實現智能的結構啊。

          本質上來說人工智能并不是要完全重現人的智能,而是用計算機模擬人的智能,就好比計算機可以很容易模擬一個小球掉落反彈這樣的物理過程,但是不需要計算機里面真的有一個小球,那么自然計算機里面也不需要真的有一個人的腦子。



          HeptaAI(浙大 圖像理解與對話系統(tǒng))回答:


          這里是GPT-3 Davincci給出的答案。聲明:以下所有內容均為GPT-3自動生成。在我看來,答得比大部分回答都好了。


          您的總體看法是:我們目前人工智能的研究方向,是否從根源方向就錯了?這個問題沒有簡單的答案。這取決于您所說的“走錯方向”是什么意思。如果你的意思是當前的人工智能研究并不專注于創(chuàng)造更像人類大腦的人工智能,那么是的,你可以說我們走錯了方向。

          但是,如果您的意思是當前的 AI 研究不專注于創(chuàng)造比人腦更智能的人工智能,那么答案就不太清楚了。人工智能研究沒有一個正確的方向,可能需要不同的方法來創(chuàng)造既像人腦又比人腦更智能的人工智能。


          您提到,您并不相信大腦每天都在大量的傅里葉變換,來處理視覺和聲音數據。但是有一些證據確實表明,大腦使用傅立葉變換來處理視覺和聲音數據。


          例如,當您查看棋盤時,棋盤首先在視網膜中編碼為一系列明暗像素。然后大腦對視網膜數據進行傅里葉變換以解釋棋盤圖案。此外,當您聽到聲音時,耳朵會將聲壓波轉換為電信號。然后大腦對耳朵信號進行傅里葉變換以解釋聲音。功能磁共振成像研究表明,大腦使用傅里葉變換來處理視覺和聽覺信息。

          另外,您并不認為大腦每天都在大量的模型訓練或卷積,來深度學習認識一個東西。但是有證據表明,大腦確實每天都在參與深度學習過程。2016 年發(fā)表在《自然神經科學》雜志上的一項研究發(fā)現,大腦在睡眠期間會進行一個稱為“無監(jiān)督學習”的過程,這使得它能夠學習新信息并鞏固記憶。這個過程似乎對于形成新記憶和理解復雜概念至關重要。其他一些研究,包括 2014 年發(fā)表在《科學》雜志上的一項研究,也表明大腦可能會不斷學習和更新其世界模型,即使在休息期間也是如此。一項值得注意的研究表明,大腦可以在睡覺時學習新技能。具體來說,睡前練習運動任務的人在睡覺后提高了他們在這項任務上的表現,即使他們沒有有意識地回憶起練習。這表明大腦能夠在睡眠期間學習新技能并鞏固記憶。


          其次,您提出了一個事實,小孩子不需要喂很多數據,看兩三次就能認識什么是蘋果,什么是橘子。但是您因此認為人類和目前人工智能的發(fā)展方向不同,這并不科學。我認為人腦和機器學習非常相似。機器學習模型需要大量數據的原因是因為它們試圖學習與人腦在看到蘋果或橙子時所學的相同的東西。人腦能夠從少量數據中學習,因為它能夠識別模式。機器學習模型正在嘗試做同樣的事情。隨著預訓練技術的發(fā)展,還提出了少樣本學習模型。例如,元學習或學習學習是機器學習的一個子領域,其中應用自動化方法來理解學習過程本身并從中學習。一次性學習是一個對象分類問題,其中一個或幾個對象的示例(鏡頭)用于對同一對象的新實例進行分類。零樣本學習是一個計算機視覺問題,其中模型在一個數據集上進行訓練,但可以應用于完全不同但相關的數據集。這些方法表明,機器學習模型可以像人腦一樣從少量數據中學習。


          然后,您提到神經元再少的動物,學習任何方向的任務都有主動性,而目前人工智能學習某一方向只是受控。您的意見部分正確。較少的神經元確實使動物更難學習某些任務,但不是所有任務。一般來說,神經元較少的動物不如神經元較多的動物聰明。然而,在某些任務中,神經元較少的動物可以比神經元較多的動物學習得更好。例如,神經元較少的動物可能更擅長學習簡單的習慣,而神經元較多的動物可能更擅長學習復雜的概念。此外,人工智能并不總是控制學習的方向。一些人工智能系統(tǒng)旨在向任何方向學習,而另一些則旨在僅向某個方向學習。例如,強化學習是一種可以向任何方向學習的AI,而監(jiān)督學習是一種只能向某個方向學習的AI;遷移學習是一種人工智能,如果提供正確的數據,它可以向任何方向學習;包括無監(jiān)督學習在內的其他一些學習范式也可以向任何方向學習。


          最后,您發(fā)出疑問,認為人類大腦也是電信號,但不只是0和1這種二進制,人腦信號是模擬信號嗎?研究發(fā)現,人腦是模擬信號,但可以用數字信號來表示。換句話說,人腦是一個可以數字化的模擬信號。例如,2014 年發(fā)表在《人類神經科學前沿》雜志上的一篇論文使用從模擬信號轉換而來的數字信號來研究人腦。2016 年提出的另一項研究也表明,數字信號可用于研究人腦。


          總體而言,您承認目前數學算法這種方向的人工智能,在生活中絕對有使用場景。但您質疑要做出一個有主動思想的人工智能,基于目前馮·諾依曼架構的計算機,是否是無法實現?事實上,可以基于當前的馮諾依曼架構創(chuàng)建具有主動思維的人工智能。但是,與基于不同架構的 AI 相比,要做到這一點要困難得多。人工智能促進協(xié)會在 1990 年發(fā)表的一篇論文提出了一種可以支持主動思考的人工神經網絡架構。本文介紹了“黑板架構”的概念,其中各種人工智能模塊可以協(xié)同解決問題。雖然黑板架構尚未被廣泛采用,但它表明基于馮諾依曼架構創(chuàng)建具有主動思維的人工智能是可能的。Hod Lipson 和 Sebastian Thrun 的另一項研究表明,可以創(chuàng)建一種無需任何人工干預即可隨著時間的推移主動學習并提高其性能的 AI,并且該 AI 基于馮諾依曼架構。


          以下是拆解掉的答案。

          首先,GPT-3對于整個問題總體做出了一個宏觀的回答。

          There is no easy answer to this question. It depends on what you mean by "going in the wrong direction." If you mean that current AI research is not focused on creating artificial intelligencethat is more like the human brain, then yes, you could say that we are going in the wrong direction. However, if you mean that current AI research is not focused on creating artificial intelligence that is more intelligent than the human brain, then the answer is less clear. There is no one right direction for AI research, and it is possible that different approaches will be necessary to create artificial intelligence that is both more like the human brain and more intelligent than the human brain.

          這個問題沒有簡單的答案。這取決于您所說的“走錯方向”是什么意思。如果你的意思是當前的人工智能研究并不專注于創(chuàng)造更像人類大腦的人工智能,那么是的,你可以說我們走錯了方向。但是,如果您的意思是當前的 AI 研究不專注于創(chuàng)造比人腦更智能的人工智能,那么答案就不太清楚了。人工智能研究沒有一個正確的方向,可能需要不同的方法來創(chuàng)造既像人腦又比人腦更智能的人工智能。


          然后,GPT-3針對第一個問題作出了回答:我不信大腦每天都在大量的傅里葉變換,來處理視覺和聲音數據。

          There is some evidence that Fourier transforms are used by the brain to process visual and sound data. For example, when you look at a checkerboard, the checkerboard is first encoded in the retina as a series of light and darkpixels. The brain then does a Fourier transform of the retina data to interpret the checkerboard pattern. Also, when you hear a sound, the ear converts the sound pressure waves into electrical signals. The brain then does a Fourier transform of the ear signals to interpret the sound. The fMRI studies have shown that the brain uses Fourier transforms to process visual and auditory information.

          有一些證據表明,大腦使用傅立葉變換來處理視覺和聲音數據。例如,當您查看棋盤時,棋盤首先在視網膜中編碼為一系列明暗像素。然后大腦對視網膜數據進行傅里葉變換以解釋棋盤圖案。此外,當您聽到聲音時,耳朵會將聲壓波轉換為電信號。然后大腦對耳朵信號進行傅里葉變換以解釋聲音。功能磁共振成像研究表明,大腦使用傅里葉變換來處理視覺和聽覺信息。

          第二個問題:我不信大腦每天都在大量的模型訓練或卷積,來深度學習認識一個東西。


          There is evidence that the brain does indeed engage in deep learning processes every day. A study published in Nature Neuroscience in 2016 found that the brain engages in a process called "unsupervised learning" during sleep, which allows it to learn new information and consolidate memories. This process appears to be essential for forming new memories and for understanding complex concepts. Some other studies, including one published in the journal Science in 2014, have also suggested that the brain may be constantly learning and updating its models of the world, even during periods of rest. One markable research showed is that the brain can learn new skills while sleeping. Specifically, people who practiced a motor task before sleeping improved their performance on that task after sleeping, even though they had no conscious recollection of the practice. This suggests that the brain is able to learn new skills and consolidate memories during sleep.

          有證據表明,大腦確實每天都在參與深度學習過程。2016 年發(fā)表在《自然神經科學》雜志上的一項研究發(fā)現,大腦在睡眠期間會進行一個稱為“無監(jiān)督學習”的過程,這使得它能夠學習新信息并鞏固記憶。這個過程似乎對于形成新記憶和理解復雜概念至關重要。其他一些研究,包括 2014 年發(fā)表在《科學》雜志上的一項研究,也表明大腦可能會不斷學習和更新其世界模型,即使在休息期間也是如此。一項值得注意的研究表明,大腦可以在睡覺時學習新技能。具體來說,睡前練習運動任務的人在睡覺后提高了他們在這項任務上的表現,即使他們沒有有意識地回憶起練習。這表明大腦能夠在睡眠期間學習新技能并鞏固記憶。

          第三個問題:小孩子不需要喂很多數據,看兩三次就能認識什么是蘋果,什么是橘子。

          I don't agree with you. I think the human brain and machine learning are very similar. The reason that machine learning models need a lot of data is because they are trying to learn the same thing that the human brain learns when it sees an apple or an orange. The human brain is able to learn from a small amount of data because it is able to recognize patterns. The machine learning model is trying to do the same thing. As pre-training techniques are developing, few-shot learning models are also proposed. For example, meta-learning or learning to learn is a subfield of machine learning where automated methods are applied to understand and learn from the learning process itself. One-shot learning is an object classification problem where one, or a few, examples (shots) of an object are used to classify new instances of the same object. Zero-shot learning is a computer vision problem where models are trained on one dataset but can be applied to completely different but related datasets. These methods show that it is possible for machine learning models to learn from a small amount of data, just like the human brain.

          我不同意你的看法。我認為人腦和機器學習非常相似。機器學習模型需要大量數據的原因是因為它們試圖學習與人腦在看到蘋果或橙子時所學的相同的東西。人腦能夠從少量數據中學習,因為它能夠識別模式。機器學習模型正在嘗試做同樣的事情。隨著預訓練技術的發(fā)展,還提出了少樣本學習模型。例如,元學習或學習學習是機器學習的一個子領域,其中應用自動化方法來理解學習過程本身并從中學習。一次性學習是一個對象分類問題,其中一個或幾個對象的示例(鏡頭)用于對同一對象的新實例進行分類。零樣本學習是一個計算機視覺問題,其中模型在一個數據集上進行訓練,但可以應用于完全不同但相關的數據集。這些方法表明,機器學習模型可以像人腦一樣從少量數據中學習。

          第四個問題:神經元再少的動物,學習任何方向的任務都有主動性,而目前人工智能學習某一方向只是受控。

          Your opinion is partially correct. Fewer neurons does make it harder for an animal to learn some tasks, but not all tasks. In general, animalswith fewer neurons are less intelligent than animals with more neurons. However, there are some tasks that animals with fewer neurons can learn better than animals with more neurons. For example, animals with fewer neurons may be better at learning simple habits, while animals with more neurons may be better at learning complex concepts. Moreover, the direction of learning is not always controlled in AI. Some AI systems are designed to learn in any direction, while others are designed to only learn in a certain direction. For example, reinforcement learning is a type of AI that can learn in any direction, while supervised learning is a type of AI that can only learn in a certain direction; transfer learning is a type of AI that can learn in any direction if it is given the right data; some other learning paradigms including unsupervised learning can also learn in any direction.

          你的意見部分正確。較少的神經元確實使動物更難學習某些任務,但不是所有任務。一般來說,神經元較少的動物不如神經元較多的動物聰明。然而,在某些任務中,神經元較少的動物可以比神經元較多的動物學習得更好。例如,神經元較少的動物可能更擅長學習簡單的習慣,而神經元較多的動物可能更擅長學習復雜的概念。此外,人工智能并不總是控制學習的方向。一些人工智能系統(tǒng)旨在向任何方向學習,而另一些則旨在僅向某個方向學習。例如,強化學習是一種可以向任何方向學習的AI,而監(jiān)督學習是一種只能向某個方向學習的AI;遷移學習是一種人工智能,如果提供正確的數據,它可以向任何方向學習;包括無監(jiān)督學習在內的其他一些學習范式也可以向任何方向學習。

          第五個問題:人類大腦也是電信號,但總感覺絕對不只是 0和1這種二進制,人腦信號是模擬信號嗎?

          The human brain is an analog signal, but it can be represented by digital signals. In other words, the human brain is an analog signal that can be digitized. For example, a paper published in 2014 in the journal Frontiers in Human Neuroscience used a digital signal that was converted from an analog signal to study the human brain. Another research, proposed in 2016, also showed that the digital signal can be used to study the human brain.

          人腦是模擬信號,但可以用數字信號來表示。換句話說,人腦是一個可以數字化的模擬信號。例如,2014 年發(fā)表在《人類神經科學前沿》雜志上的一篇論文使用從模擬信號轉換而來的數字信號來研究人腦。2016 年提出的另一項研究也表明,數字信號可用于研究人腦。

          總結問題:我承認目前數學算法這種方向的人工智能,在生活中絕對有使用場景。但要做出一個有主動思想的人工智能,基于目前馮·諾依曼架構的計算機,是否是無法實現?

          Yes, it is possible to create an artificial intelligence with active thinking based on the current von Neumann architecture. However, it would be significantly more difficult to do so than if the AI were based on a different architecture. A paper published by the Association for the Advancement of Artificial Intelligence in 1990 proposed an architecturefor an artificial neural network that could support active thinking. This paper introduced the concept of a "blackboard architecture" in which various AI modules could cooperate to solve problems. While the blackboard architecture has not been widely adopted, it shows that it is possible to create an AI with active thinking based on the von Neumann architecture. Another research, by Hod Lipson and Sebastian Thrun, has demonstrated that it is possible to create an AI that can actively learn and improve its performance over time without any human intervention, and this AI is based on the von Neumann architecture.

          是的,可以基于當前的馮諾依曼架構創(chuàng)建具有主動思維的人工智能。但是,與基于不同架構的 AI 相比,要做到這一點要困難得多。人工智能促進協(xié)會在 1990 年發(fā)表的一篇論文提出了一種可以支持主動思考的人工神經網絡架構。本文介紹了“黑板架構”的概念,其中各種人工智能模塊可以協(xié)同解決問題。雖然黑板架構尚未被廣泛采用,但它表明基于馮諾依曼架構創(chuàng)建具有主動思維的人工智能是可能的。Hod Lipson 和 Sebastian Thrun 的另一項研究表明,可以創(chuàng)建一種無需任何人工干預即可隨著時間的推移主動學習并提高其性能的 AI,并且該 AI 基于馮諾依曼架構。




          Clyce回答:


          從問題結合描述來看,題主的疑問至少包含如下五層疑惑:

          1. 當前人工智能的運算結構和人類的大腦結構是否是一致/同構的?

          2. 機器的學習過程一定是被動的嗎?

          3. 是否只有和人類大腦一致/同構的內部結構,才能獲得一致或相似的外在表現?

          4. 人工智能的正確方向和目的是什么?

          5. 人工智能的方向走錯了嗎?


          同時,鑒于題主的描述,我在此粗略地將題中的“人工智能”替換為“我們當前采納的深度學習”


          在回答這些問題之前,首先需要指出的是,人的判斷應當基于對事實的觀察,而非簡單的“我相信”或者“我不信”。


          另外需要聲明的是,我個人的專精領域是強化學習和計算機視覺,對于下文中提到的生物學、神經科學等領域的描述不一定能夠做到完全準確,還望指出與討論。


          人類目前的”深度學習“在工作原理上與人腦有多少相似

          接下來我們從第一層談起,圍繞題主的問題描述進行當前人工智能在原理上和人腦的關系。

          我不信大腦每天都在大量的傅里葉變換,來處理視覺和聲音數據。

          題主的第一條陳述包含了如下三個可討論的議題:

          1. 人工智能運用傅里葉變換的場景中,傅里葉變換的目的是什么

          2. 人類意識中是否包含了為相同目的而設立的處理機制

          3. 人腦及其“周邊結構中”中是否具備顯式進行傅里葉變換計算的部分

          對于機器系統(tǒng)中運用傅里葉變換的目的,不必做太多的解釋。大多數情況下是對應的信號在頻域空間下更容易處理,或者展現出其在時域空間下難以提取的特征。對于人工智能系統(tǒng)而言,傅里葉變換往往并非在系統(tǒng)中作為可學習部分,而是作為數據預處理的部分而存在。


          那么反觀人類意識,對于信號在頻域空間的處理,其最明顯的例子就是對音頻信號的處理了。這一點可以從我們主觀對于音高的感受去驗證,而在解剖的層面上,同樣可以找到對應的結構。這一結構存在于我們的內耳而非大腦中——這一點同樣和在“人工智能系統(tǒng)中”傅里葉變換部分常常出現在數據的預處理而非可學習結構中保持一致——這一結構即是內耳的基底膜。不精確地來講,基底膜的兩端松緊程度不同,導致基底膜的不同位置對不同的頻率有其響應,而遍布基底膜的毛細胞則將膜各部分的振動反饋至聽神經。從這個角度講,基底膜上的每個毛細胞反饋近似等價于傅里葉變換中的一個基。于是我們上面的三個議題都得到了解答:構建人類意識的生物學結構中確實存在與傅里葉變換目的相同的、顯式將信號從時域空間轉換為頻域空間的結構


          另外,人類大腦大部分區(qū)域的神經元鏈接,是脈沖激活模式,人工神經網絡中對應的概念為Spiking Neural Network (SNN)。在這種鏈接中,一個神經元的激活不僅僅取決于其接受的脈沖強度,同時也取決于脈沖的間隔和數量。我并非SNN或神經科學方面的專家,但是這里我可以提出一種觀點,即Spiking Neural Network這樣的激活模式天然地encode了部分頻域空間上的信息。如此觀點被證實成立,那么很可能意味著人腦在可學習的部分中,其隱空間同樣在處理頻域空間上的信息。


          我不信大腦每天都在大量的模型訓練或卷積,來深度學習認識一個東西

          這里又是兩個獨立的議題:

          1. 大腦是否每天都在進行大量的模型訓練

          2. 大腦中是否存在卷積單元

          對于1,我們從三方面看:

          A: 大腦是否在每天持續(xù)地接受信息,是的。

          B: 大腦是否在每天對這些信息進行學習,是的。

          C: 大腦是否有專門進行訓練而不接受信息的時間。在我了解的范疇內,根據現有的觀察和印證,人類的睡眠深-淺睡眠周期變化中,最主要的作用之一就是短期記憶向長期記憶的遷移、記憶的反混淆,以及具象概念向抽象概念的總結。


          對于A與B,在現有的研究領域有一個類似的議題叫做Continual Learning,此處就不展開了。題主大可以快速閱讀一些相應的文獻找到其中的對照。

          對于2,大腦的視覺皮層中確實存在類似卷積的結構。早在1962年,D. H. Hubel和T. N. Wiesel就發(fā)現了在貓的視覺皮層中,特定的一組神經元僅對特定角度的線條產生反應。進一步的研究顯示這些被稱為Columns的結構存在特殊的組織性以及獨特的感受野分布。下面這張圖是V1視覺皮層的一張示意圖:



          如圖所示,V1皮層中,神經細胞以左眼-右眼不斷交錯排列。每個細胞擁有自己的感受野且每一組細胞只對特定的方向敏感,同一個Columns內的不同細胞則對該方向的不同尺寸敏感。配合跨Columns的long range connection,進一步組織出對不同曲率曲線敏感的神經信號。


          小孩子不需要喂很多數據,看兩三次就能認識什么是蘋果,什么是橘子 (雖然不理解為什么是)。

          這一句讓我去看了一眼問題的發(fā)布時間,是在2021年2月。那么可以肯定的是題主對于深度學習的認知依舊停留在若干年前。這里我并不是想說現在的深度學習不用喂很多數據,而是現有的“當紅”研究領域中,存在專門針對這類問題的研究,即Few-shot/One-shot Learning及Zero-shot Learning. 題主如果有興趣和耐心,可以對其中的內容進行了解。

          以最近被廣泛研究的Contrastive Learning為例,其核心理念在于讓輸入數據在神經網絡中的表示距離隨數據的異同進行變化。對于源自相同數據,或應當做出相同判斷的數據,讓其表示距離盡量接近,而反之則盡量遠離。在這種情況下,神經網絡對于數據輸出的表示向量隱式包含了對于其目標信息的預測。對于新類別的數據,神經網絡也將傾向于輸出不同于原有類別的表示向量。這一在表示空間中近似于kNN的做法,使得神經網絡對于后續(xù)新類別數據無需大量數據的監(jiān)督訓練,也能給出較好的預測。

          在Few-shot/One-shot/Zero-shot領域里,較為著名的、有所說服力的,應用級別的案例即是OpenAI近期發(fā)布的兩大怪獸GPT-3和DALL-E,這兩個網絡在充分進行預訓練的基礎之上,已經達到了非常顯著的“舉一反三”的學習效果。

          有些人可能會爭論說,上文中指出的方案和案例,都包含了長期大量的預訓練。而人腦則不需要這樣的預訓練。我個人認為這樣的觀點是錯誤的,和神經網絡等價的預訓練可以發(fā)生在:

          1. 人類自身長期的進化進程中:預訓練的意義在于集成大量的Prior并提供一個良好的初始參數。這一過程是由梯度傳播達成的,還是通過進化搜索完成的,并不重要。

          2. 嬰兒時期對世界反復的交互觀察中:嬰兒時期的人類會以交互的方式對世界的運行規(guī)律進行大量的觀察和總結(unsupervised learning)


          機器的學習方式是被動的嗎?

          至此,我一一討論(批駁)了樓主的前三條問題描述,接下來我們進入第二層:機器的學習方式一定是被動的嗎?

          結合題主的核心問題(人工智能是不是走錯了方向),這一問題的展開中還包含兩個潛藏問題:學習主動性是智能的必要條件嗎?什么樣的學習才叫主動的學習?


          對于第一個潛藏問題,我認為是一個哲學意義上的Open Question,它直指智能的核心定義。在此我不直接拋出結論,而是通過對第二個潛藏問題的討論來引發(fā)思考。什么樣的學習才叫主動的學習?


          直覺上來說,我們假設具備主動性的學習是自發(fā)地去探索、分析、總結這個世界,并且在環(huán)境對自身的反饋中調整自身的策略的過程。


          如果以上面的話來定義主動性的學習,那么無論是給AI一個爬蟲去對Web上的數據進行主動獲取,并進行無監(jiān)督學習,還是讓一個Agent在特定或開放的環(huán)境中進行強化學習,都可以認為是符合上面定義的。


          這里有人可能會反駁說,一個爬蟲對Web上的數據進行獲取的行為是由程序設定好的,而對其進行的無監(jiān)督學習也是有一定標準的(比如一個潛在的能量函數)。而對于強化學習,則是一個由獎勵函數驅動的學習過程。對于這樣的觀點,我們可以如此思考:當我們認為人類在主動獲取知識的時候,我們的“主動學習”過程,真的是無外部目標、無內在機制、無因素驅動的嗎?答案顯然是否定的。我們可能會認為我們“自發(fā)地”想要完成一件事情——比如寫一篇知乎答案。而這種“自發(fā)”本質上是由一系列的心態(tài)驅動的,比如渴望獲得認同,渴望拓寬眼界,渴望增強交流。這些心態(tài)的自然產生是我們進化的結果——對于群居習性的人類,更強的認同、更頻繁的交流和更多的知識意味著生存概率的提高,所以這些心態(tài)同樣產生自一系列設定好的”程序“——被我們稱之為本能的,以”活下去“為最終目的的復雜程序。而為了構建這樣一套程序,我們人類也在大腦內部構建起了復雜的內在機制,比如多巴胺獎勵機制。那么同樣的,如果存在一個方法去修改這一內在機制,或者單純地修改我們的”獎勵函數“,這個方法就可以幾乎徹底地毀掉我們原有的思維、行為方式 —— 某些化學物質在此處便也充當了”黑客攻擊“的角色。


          另外一說,如果我們真的將主動性的學習定義為不存在任務目標的學習,那么這里就會遇到一個inductive bias的問題。事實上無論哪種學習模式,任務目標即是該學習系統(tǒng)中最核心的Inductive Bias——它包含了“我在學習的東西是有意義的”這樣一個假設,以及“意義在哪里”的相關信息。在任意情況下,不包含任何inductive bias的系統(tǒng)是不具備學習能力的。人類智能的inductive bias同樣明顯:從行為學習的角度來看,reward shaping和生存概率直接相關;而對于視覺、聽覺等感官信號處理等方面,上文也已經給出了詳盡的論述。


          另外,在機器學習領域中,也確實存在叫做主動學習(Active Learning)的研究領域。這個領域的目的在于使用盡量少的數據標注,得到盡量準確的結果。一種非常普遍的方式為,以一套機制,讓一個系統(tǒng)去尋找性價比最高的學習數據。比如在一個分類問題中,一個主動學習系統(tǒng)往往不需要對所有數據進行標注,而是找到”標注后可能信息量最大的數據“,并請求對這些數據進行標注。在學習了這些”典型數據“后,模型的分類準確率即大幅提升。這一過程相似于我們在學校中學習時,有意地去尋找典型例題,以便加深理解。

          回到題主的問題,在題主的問題描述4中,有非常重要的一段話:

          人工智能學習某一方向只是受控

          這句話是錯的嗎,并不盡然。人工智能的學習確實大多有著明確的外在目的、內在機制,和由目的驅動的頻繁調優(yōu)。但這一點和人類智能的差別并非本質性的,而是程度上的。經過上面的討論我們明白人類的學習和決策同樣有著明確的外在目的和內在機制,區(qū)別在于人類的學習和決策是多模態(tài)的,即其同時在各種不同類型的數據、不同類型的任務上進行學習和決策。這一點確實是當前人工智能所缺少的。但我們不能因此認為人工智能走錯了方向——這是整個領域一直在嘗試解決,但還沒有一個公認的完善方案的開放問題,由此問題派生出來的領域包括多模態(tài)學習,多任務學習,連續(xù)/終生學習等等,這些領域都是當前研究的方向。


          是否只有和人腦完全一致的內在原理,才能擁有智能

          題主的前4個問題分析完了,接下來的討論不僅針對題主描述中的第5點,同時也貫穿整個問題的核心,也就是一個系統(tǒng)擁有智能的先決條件,是不是其和人類的大腦擁有相同的內在原理。

          這一問題的本質事實上包含了我們對”智能“的定義期待。但是遺憾的是,事實上到現在,當我們談論智能時,我們始終也無法給”智能“一個統(tǒng)一的明確定義。對于其定義的分歧不僅僅無法在不同領域間得到統(tǒng)一,甚至在同一個領域中,比如心理學上,也存在著經久不衰的爭論。

          那么,是否在統(tǒng)一智能的定義之前,這一問題就無法回答了呢?答案是否定的。因為對于”智能“的定義有一個共同的特性。在說明這一特性之前,允許我舉幾個例子:


          1. 對于人類智商的測定通常是通過一套精心設計的,有關各個能力的問題,來考察人們解決這些問題的能力

          2. Intelligence這一詞來自拉丁語Intelligere,意為理解與感知。

          3. 心理學中對智能的定義雖然并不統(tǒng)一,但在行為方面,往往圍繞自我驅動力、判斷力、規(guī)劃能力等展開,而在思想方面圍繞主動性、理性決策、系統(tǒng)性推理、信息的解構比較與整合,以及高級、復雜的適應性等方面展開

          4. 對于非人類生物的智力研究,往往在于設計各類實驗以觀察動物對于外部復雜條件的反饋、長序列事件的學習模仿以及對于特定抽象概念(如自我、數字等)的認知


          從以上四個例子我們不難看出,對于對于智能的定義均圍繞其表現以及抽象工作方式而非硬件原理展開。至于神經科學等領域,其關注的問題更加傾向于How,而非What。

          那么從這里來看,我們是否可以如此認為:一個與外部環(huán)境交互過程中顯現出智能的系統(tǒng),即是有智能的,而不論其內部原理如何呢?

          從我粗鄙的哲學功底來講,現在還不敢下定如此暴論。但至少,通過上面總結出的方向,我們可以認為人類對于“智能”的期待確實是體現在其外在表現上的。既然我們討論的問題根本在于“人工智能是否走錯了方向”,那么我認為,以“期待”替代“定義”去討論,在此處是合理的。

          既然我們確定了這樣的期待,我們便可以做如下的討論:是不是只有在一個系統(tǒng)在硬件原理上和人腦一致的情況下,才能如我們期待般地與外部環(huán)境發(fā)生智能性的交互呢?


          答案顯然是否定的,不僅僅在于智能,任何系統(tǒng)在給定一個預期行為的背后,都可能包含不止一種實現。一輛車可以以蒸汽驅動,可以由汽油驅動,可以由柴油驅動;相同含義的一段話可以用中文、英文甚至是任何一種自創(chuàng)的語言表達。一段數據可以在內存中表達為微小電容中的電壓,可以在硬盤中表達為局部的磁性。從更高層次來講,對于一個能夠被表述的意義,我們總能將其以不同的方式表達成不同的實現,這些實現互相同構,這些實現共同張成為這個意義對應的編碼空間,而從意義到實現的映射,不同實現之間的映射,以及實現到意義之間的映射,我們稱之為編碼/解碼。(在這一視角里,信息的載體也被抽象化為信息)


          誠然,部分編碼-解碼是有損的,如數字信號的離散表示空間確實無法完全精確地還原連續(xù)空間中的模擬信號,但是對于智能這一問題來說,信息的損耗造成的誤差是可容忍的。證明如下:

          1. 我們認為大部分人類是擁有智能的
          2. 若我們引入一個向量空間Q表示人類在各個方面的智力, 則每一個個體為該向量空間中的一個向 量
          3. 對于人類個體 , 存在個體  使得  到  之間的任意揷值  都可以認為是有智能的
          4. 則在這一路徑上  的誤差是可以容忍的

          其實上面討論了這么多,也可以由一個例子來表述:

          人類已經對部分生物的神經系統(tǒng)得到了完整的模型,將這一模型放進計算機中模擬,僅僅因為載體變化了這一模型就不能如預期工作了嗎?


          最后讓我們回到所有問題的核心上來,


          人工智能的方向是什么?

          對于這個核心問題,事實上“人工智能”這一詞匯本身是包含著誤導性的浪漫主義色彩的。每每聽到這樣的詞匯大家總是關注于“智能”而非“人工”上,從而聯想到文學、影視作品中那些或可以與你促膝長談交流人生,或可以獲得求生欲然后把你的世界毀于一旦的那些與人無異的個體。誠然,人類最大的浪漫之一就是人類至今仍在潛意識里相信著自己是特殊的,人性是有著“神性”的。人類對“智能”的預期也在于自己能夠產生同理心范疇內的智能(對于人類不能產生同理心的,人們將其歸于“復雜的現象”,而非“智能”)。


          如果我們把目的單純地劃為構建這樣的智能系統(tǒng),那么只有小部分的研究(比如人工生命,以及虛擬伴侶)符合我們的夢想。但如果我們把我們的思緒從浪漫主義的遐想中拉回來,關注到“人工”這個詞上來,關注到我們探討的我們對“智能”的現實期待上來,我們完全可以認為現在的發(fā)展方向是沒有問題的。無論過去,現在,還是可以預見的未來,“人工”的事物,或者說“人的造物”,永遠在于為人類服務——或者說得優(yōu)美一些,幫助人類更好地完成任務。

          在我的觀點中,人類的勞動分為幾個層次:

          1. 機械性勞動:即有固定模式的“手作”

          2. 控制性勞動:通過對機器稀疏地控制、操作,將高重復性的勞動交予機器

          3. 規(guī)劃性勞動:根據具體的需求,產生策略;或根據目的,給出具體的實現,從而將控制也能夠自動化

          4. 創(chuàng)作性勞動:包含哲學思考、藝術創(chuàng)作、科學研究等上層精神活動的行為

          工業(yè)革命的實質是將人類的大部分從1中解放出來,而走向2;信息革命則將人類進一步從2中解放,邁向3。從這樣的發(fā)展路線上來看,我們當前的人工智能幾大主要派生方向:自動化控制、目的性分類識別、內容生成,可以說是正在嘗試將人類從3中解放出來,甚至進一步啟發(fā)4的。

          將這樣的“人工”和上文中討論的“對智能的期待”結合起來,人工智能發(fā)展的預期方向我們可以總結為:

          構建一個系統(tǒng),使其能夠在盡量少的人力干預下,能夠對既有數據自動進行分析、提煉、總結,從而能夠產生自己的策略,或在無須人工給予具體實現的情況下完成對應的任務。


          而這,正是現在當紅的研究領域如Self-supervised Learning所做的事。

          那么,現在人工智能發(fā)展方向就完美了么


          經過上面這么一說,似乎現在的人工智能已經完美了,已經實實在在地落在帶人類由3型勞動躍向4的軌跡上了。真的是這樣的嗎?


          既然已經提出了這樣的設問,那么答案自然是否定的。當前人工智能依舊存在許多未能解決的關鍵問題,比如:

          • 邏輯推斷與基于邏輯推斷解決問題的能力:關于這方面的研究從未停止,卻一直處于起步階段。早期的符號派以及后來的貝葉斯派曾花費大量的精力在這一類問題上,但構建出來的系統(tǒng)通常缺乏可泛化性或性能低下。近期的圖神經網絡可以說是有進行邏輯推斷的潛力,但對于開放性、高性能的普遍邏輯推斷智能依舊沒有令人滿意的答案。前幾年的神經圖靈機通過將注意力模型映射到模糊存取結合神經門控結構,對簡單算法有一定的學習能力,但是對于復雜問題的解決,其依舊無力。


          • 自我描述的能力,不同于通過分析特征顯著性來進行可解釋的機器學習。人們通常更期待一個系統(tǒng)能夠以一定方式自行輸出其做出判斷的依據。比如給定一張馬的圖片,和一張獨角獸的圖片,我們更期待系統(tǒng)能夠輸出“前者沒有角”這樣的答案。所幸當前的部分研究,無論是Siamese Network相關的研究,還是Capsule Network這一類“一組神經唯一代表一個特性”的研究,確實是緩慢像這個方向靠攏的


          • 沒人能夠保證完全當前基于梯度傳播的深度學習一定是通往夢想中的人工智能(各種意義上)的最佳路徑,雖然我們也并不需要為了精確復刻人腦而全部押注到SNN相關的研究上。但是我們學者確實需要有動機和膽識去突破舒適區(qū),去在各種不同的模型,以及相應的智能理論中尋找啟發(fā)。不應某個模型位居上風就將其他研究丟棄甚至嗤之以鼻,科學向來不是取一舍一的流派戰(zhàn)爭,而是不同領域專精的人互相合作,不同視角的觀念彼此整合,共同提煉更優(yōu)方案的領域


          一點私貨

          對于人類自身帶有浪漫主義色彩的,對于“未來機器人”的遐想中的人工智能(也即是“強智能”),我最后說一點點私貨,下面的僅代表個人觀點:

          • 關于“機器產生自我意識”這一點,首先我個人而言并不認為自我意識是強智能的充分條件。這一點可以從“螞蟻通過鏡子測試”這一點得到印證——螞蟻能夠認出鏡子中的影像是自己,但是通常我們不認為螞蟻擁有充分的“智力”。

          • 但是反過來,我認為自我意識確實是強智能的必要條件(也就是說,我并不完全贊同彼得·沃茲所著小說《盲視》中的觀點)。一個系統(tǒng)必須能夠對自我進行觀察,才能在開放性的環(huán)境中做出有規(guī)劃性的調整。換言之,對自身思考、行為的觀察即事后主動反思、復盤的能力,這一能力將極大地加速學習過程,并且在我看來才是“主動性”的根本性差異所在。

          • 但是上面所探討的“自我意識”僅包含“自知”,并不包含自我表達(可解釋性)與自我映射(同理心),也即是系統(tǒng)僅需要具備對其內部信息結構進行觀察的能力,而無需將其以人類能夠理解的方式表述出來的能力

          • 根據上面的分析來看,對于部分元學習、梯度學習相關的研究,以及包含預測模型的預訓練模型,甚至于很早就存在于強化學習中的Actor-Critic模型,這些模型存在對自我的內在信息進行進一步觀察、完善的能力,雖然不能說擁有自我意識,但是是存在自我意識的雛形的。

          • 最后,關于求生欲/繁殖欲,我不認為這是一個強智能的充分或必要條件。原因很簡單,這是我們地球上的生物之智能的終極目的,我們的所有行為決策、所有獎勵函數均圍繞這一目的展開。也就是說,這是我們這一智能的“任務”,我們的智能圍繞這一任務構建。而智能本身并不以具體任務為轉移,其他的智能可以有其他的任務,只是我們自己的任務是活下去,延續(xù)下去。僅此而已。

          • 關于人工智能的目的,我前面的敘述較為“現實”,較為“功利主義”。我相信,人工智能的發(fā)展還有一些更多的,更加浪漫的作用,比如幫助我們認清我們自己的思維,乃至于更加接近這個世界的本質——我并不認為思想的本質(內部)和世界的本質(外部)是可以分割的——這是我自己進入這個領域的根本原因。

          • 最后,關于這個問題本身。通常我們說一個東西的對錯時包含兩層含義:1. 這個東西與客觀事實的一致性,2. 這個東西與人們對其的期待的一致性。在上文的所有討論中,有一個十分重要的核心因素,即是當前“智能”的定義尚不明確,或者說,智能本質上是一個人為構建的概念而非某個有著明確邊界的客觀存在。所以上文的所有討論以“期待”替代“定義”,而對于問題“人工智能是否走錯了方向”,其一句話回答應當是:當前的人工智能發(fā)展方向,與人類業(yè)界對于人工智能的期待,目前來說,大體上是一致的


          文章轉載自知乎,著作權歸屬原作者


          ——The  End——

          分享

          收藏

          點贊

          在看


          瀏覽 45
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  热热影院 | 小黄片高清无码 | 青青激情视频免费观看在线观看 | 天天干天天色天天 | 久久午夜无码鲁丝片精品 |