機器人的「三體問題」
導讀:物理學中有一個概念叫作三體問題,與重力如何影響大型物體(如行星和太陽)有關(guān):當有兩個以上的物體時,若試圖計算重力對三個物體的影響,數(shù)學公式將變得比只有兩個物體時復雜得多。
在機器人技術(shù)中,我們可以用該術(shù)語來指代人機交互中出現(xiàn)的三個參與者的問題。我們不僅需要考慮機器人、用戶/監(jiān)管者,還需要考慮機器人、用戶/監(jiān)管者和旁觀者。此時,問題也變得更加復雜。

例如,越來越多的安全機器人被部署在公寓大樓、體育賽事現(xiàn)場和社區(qū)。它們?nèi)诤狭俗詣玉{駛技術(shù)、激光掃描儀、熱成像、360度視頻和許多其他傳感功能,它們在需要加強安全保障的區(qū)域行駛,具備強大的功能,以阻止盜竊、故意破壞或其他安全威脅,并捕獲各種數(shù)據(jù)以增加識別犯罪活動的可能性。
監(jiān)管者可以與遠方的一個或多個機器人合作,實時監(jiān)視收集的數(shù)據(jù),并根據(jù)觀察結(jié)果重新部署安全人員。這些用戶(或監(jiān)管者)通過閱讀手冊和接受培訓來建立關(guān)于機器人的心理模型。
但是,當看到這個不明身份的機器人在人行道上巡邏時,周圍的社區(qū)居民、商店和企業(yè)的顧客一開始會感到驚訝,他們必須依靠短暫的觀察來弄清楚它為什么會在那里,并懷疑它是否會碾過他們的腳趾,傷害他們的孩子或?qū)櫸?,甚至誤認為他們是罪犯。
2016年7月,一個安全機器人在加利福尼亞帕洛阿爾托的斯坦福購物中心巡邏,撞倒了一個16個月大的小孩,然后繼續(xù)前進。根據(jù)制造商的說法,這個小男孩可能對這臺看上去很奇怪的機器很感興趣,于是離開了父母的身邊,開始朝機器人跑去,機器人為了避免撞到小男孩而轉(zhuǎn)向了左側(cè),但小男孩也改變了方向,導致兩人相撞。
在這種情況下,機器人并沒有造成嚴重的傷害,但有時候情況可能會更糟,例如機器人可能重300磅(約136千克),高5英尺(約1.5米)——這對于機器人的成功管理來說是極具挑戰(zhàn)性的。孩子被激起興趣并走向麻煩的過程中,父母甚至可能沒有注意到機器人,而機器人對孩子不可預測的動作也沒有準備。
在這種情況下,機器人最好停下來,而不是改變方向。人類安保人員可能不得不停下來與孩子互動,或者至少知道如何在孩子周圍進行操作。難道安全機器人不應(yīng)該像人類那樣,向孩子表現(xiàn)出同樣的關(guān)注并具備足夠的適應(yīng)能力嗎?
與受過培訓的用戶相比,旁觀者沒有多少直接接觸機器人的經(jīng)驗,所以他們只能以非常有限甚至不準確的心理模型來操作系統(tǒng)。另外,由于他們的目標與機器人的目標不同,因此機器人可能只會分散他們的注意力,并且可能會對他們造成干擾。
一般來說,機器人應(yīng)盡可能減少對旁觀者的干擾。當確實發(fā)生干擾時,機器人與旁觀者之間的協(xié)商過程應(yīng)盡可能快速簡便,就像我們在人群中用簡單的短語(如“打擾了”)完成溝通一樣。我們不需要詳細了解人群中的其他人在做什么,或者他們將在哪里繞過其他人。
但是我們確實考慮了其他高級信息,例如他們是老人還是孩子,或者正在專注地進行交談,可能注意不到我們,或者他們手中有沉重或不方便挪動的東西,例如一兩杯熱咖啡。
當我們注意到有關(guān)周圍其他人的高級信息時,我們會在潛意識中將其納入行動和決策中。如果有一位老人在我們前面走過,我們會為他讓出更多的空間。當我們走進一家商店時,如果有一位推著嬰兒車的家長跟在后面,我們會讓門開的時間比平時長一點,以幫助他們便捷地通過。我們一直在與其他人交流,而不會彼此交換任何詳細信息。
同樣,旁觀者不需要對機器人的全局計劃、意圖或推理有詳細的了解。我們可以通過人腦中的主動和被動感知系統(tǒng)來對比監(jiān)管者和旁觀者的需求,其中一種是由目標自上而下驅(qū)動的,另一種是由刺激自下而上驅(qū)動的。
作為機器人的隊友,監(jiān)管者需要機器人行為的主動模型,該模型是通過搜索監(jiān)管者和機器人的共同目標所需的相關(guān)信息來構(gòu)建的。
旁觀者只需要足夠的信息即可發(fā)揮自己的作用,以最大限度地減少干擾并協(xié)調(diào)可能發(fā)生的短暫交互。他們沒有直接監(jiān)視機器人的責任,也沒有監(jiān)視穿越道路的行人的責任,也就是說,他們只需要自治系統(tǒng)行為的被動模型,該模型是通過觀察和處理系統(tǒng)在實現(xiàn)目標時所需的信息而構(gòu)建的(圖11)。

▲圖11 擴展設(shè)計者的概念模型以包含旁觀者。旁觀者需要機器人行為的被動心理模型,以實現(xiàn)兩者的共同目標而互不干擾
例如,你可以快速地瞥一眼街上向你走來的人,然后評估那個人的肢體語言,以確定這個人在與你擦肩而過時是否有可能改變方向。你做這件事時沒有意識到這一點,評估就在一瞬間發(fā)生。
但是如果你注意到那是一個孩子,或者有人拿著一個大包裹,你會自動多讓出一點空間讓他們安全通過,而并不需要知道該人是誰、要去哪里或為什么要去那里。同樣,你無須知道機器人在做什么——為旁觀者提供豐富的機器人模型也是不必要的,此外,就認知負擔而言,這將付出很高的代價。
機器人也不需要確切地知道你在做什么以及為什么。如果有一個愛管閑事的鄰居經(jīng)常在公寓樓的走廊上攔住你,問你要去哪里、走哪條路、出門多長時間以及晚餐打算吃什么,該怎么辦?更糟糕的是,如果小區(qū)的保安開始問你所有這些問題呢?
這些是他們不應(yīng)該關(guān)注的細節(jié)。你可能會感到煩惱,甚至驚慌失措,并盡可能少說話,一直默不作聲地走著。將來你可能會盡量避免與他們互動。
因此,只需要極少量的線索,就可以讓機器人和人在街上安全通行。但是,我們怎樣才能為旁觀者提供正確的線索來預測機器人的行為,使他們能夠利用觀察到的有限信息來適當?shù)卣{(diào)整自己的行為呢?我們?nèi)绾卧O(shè)計機器人來準確地接受人們的暗示,并調(diào)整它們的行為以避免沖突呢?這些問題要求我們重新思考機器人的設(shè)計。我們必須設(shè)計一個人機系統(tǒng),而不是簡單地設(shè)計一個自動化系統(tǒng)。
我們總是考慮著身邊的人,即生活中的旁觀者,他們貫穿于我們決策過程的始終。我們可以幫拎著沉重購物袋的人關(guān)上門,保護孩子們沖到街上撿回滾落的球,把座位讓給公共汽車上的一位老人。
機器人可能永遠不會有同情心,盡管在科幻小說中可能有相反的觀點。除非我們將同情心編入程序,否則機器人不會表現(xiàn)出人類通過長時間學習才表現(xiàn)出的社會道德和禮貌。不過,機器人可能無須如此完美,看起來這些新的社會實體只要盡最大努力不被人討厭,就足夠了。
舉一個簡單的例子,在開車時將車并入另一個車道上,我們將這一過程分解為三種情境感知:感知、理解和投射(圖12)。首先,感知有關(guān)自己汽車的信息(例如速度、位置和加速度)以及周圍其他車輛的信息(再次感知速度、位置和加速度,以及車輛的接近度和類型)。

▲圖12 人類如何感知環(huán)境的各個方面,例如另一輛車的位置和司機在車內(nèi)的狀態(tài),然后在理解階段使用這些信息來了解情況,并最終預測在特定時刻并入另一條車道是否安全
然后進行理解。如果離你最近的汽車的駕駛員正在發(fā)短信,則說明他可能沒有注意到你,并且你會預測他在你并入車道時不會減速?;蛘吣愀杏X到一輛城市巴士正在逼近,但它后面的空間是開放的,在這種情況下,即使公共汽車前面有足夠的空間,你也可以選擇延遲并入。
當然,與此同時,你也在感知其他細節(jié)——關(guān)于天氣、道路狀況,以及除了周圍汽車以外的其他交通變化,比如前面亮起的汽車剎車燈。這種隱含的有前后聯(lián)系的信息通常不包含在設(shè)計者為自動駕駛汽車開發(fā)的概念模型中,但是對于與道路上的其他實體進行安全交互至關(guān)重要。
如果工作機器人在設(shè)計時不考慮旁觀者,那么當機器人填滿我們的道路、人行道和天空時,它們將不僅僅是煩惱,其錯誤可能導致真正的災(zāi)難。因此,它們的核心設(shè)計必須能容納旁觀者。事實上,正確處理這個問題可能是我們今天面臨的最新、最重大的設(shè)計挑戰(zhàn)。
當然,在某些情況下,我們對人類的期望遠不止是置身事外。例如,如果你在離開商店時不小心把一些商品弄掉在地上,其他顧客可能會停下來幫你把物品從地上撿起來。停下來幫助你并不能幫助他們更快地到達目的地,事實上,恰恰相反。
即使如此,他們也會幫你這個忙,因為他們認為他們可能會再次見到你,而你可能會以某種方式幫到他們。問題是,我們是否也應(yīng)該嘗試開發(fā)機器人的這種行為,而不僅僅是讓它們遠離我們?
我們首先關(guān)注的是如何最小化人與機器人之間的干擾這一問題,正確地做到這一點將為更好地實現(xiàn)機器人的社交互動提供堅實的基礎(chǔ)。更緊急的是,這可能涉及身體或心理安全問題。

三體問題的災(zāi)難性代價
討論三體問題不僅僅是為了減少麻煩,我們現(xiàn)在才初步看到對這個問題視而不見可能帶來的災(zāi)難性代價。
2017年8月,一個多雨的下午,在密歇根州的塔斯科拉縣,一名男子在高速公路上向西行駛時,他的車滑出了車道。他失去了對車輛的控制,越過中心線,撞上了一輛迎面而來的皮卡車。
緊急救援人員到達現(xiàn)場后,將他從車中解救出來,他被困多時并受了重傷。同時,請求了一架醫(yī)療直升機進行支援,與地面配合,幫助急救人員小心翼翼地將他救出。
當飛行員靠近地面時,他迅速判別出車禍現(xiàn)場的位置,并開始著陸。飛機開始下降,飛行員在掃視過程中,突然余光發(fā)現(xiàn)了突發(fā)情況——他的心跳加速,中止下降!他差點沒發(fā)現(xiàn)那個正在靠近的威脅——一架休閑無人機正在車禍現(xiàn)場上空盤旋并錄制視頻。飛行員緊急調(diào)整救援計劃并推遲著陸,這導致司機當天晚些時候因傷過世。
飛行員不能繼續(xù)下降,因為他不能確定無人機要做什么,他也沒有辦法與它溝通。他只是一個旁觀者,無法指揮或預測無人機的行為。
顯然,直升機飛行員的目標和無人機操作員的目標并不一致。救援直升機的飛行員想讓直升機盡可能安全地降落在離事故地點最近的地方,并且要盡可能快。飛行員并沒有考慮將避開無人機作為這個目標的一部分。
但機器人的監(jiān)管者并不知道旁觀者的意圖,他很難通過遙控界面里的狹窄視野迅速收集到相應(yīng)的信息。這架無人機的操控者正在查看視頻,并操縱無人機以獲得更好的拍攝角度,可能還沒有注意到無人機上方的救援直升機。
救援直升機飛行員與空中交通管制人員交談并收聽廣播,以避免與該地區(qū)的載人飛機發(fā)生任何沖突。地面上,應(yīng)急人員為直升機準備了一個降落區(qū)域,并將其他人員擋在一邊,盡量減少該區(qū)域的旁觀者。但飛行員并不知道這架休閑無人機的意圖,同時也很難對其施加影響。
不幸的是,這不是特例。從2014年到2016年,聯(lián)邦航空管理局接到了大約650起無人機和其他飛機(包括商用飛機、直升機和消防飛機)之間的未遂事件報告。無辜的操作員使用這些飛行機器人捕捉視頻、與朋友比賽或嘗試新功能,但卻無意中干擾了重要的活動。
這些無人機如今都是遙控的,自主性很小甚至沒有,但它們是礦井里的“金絲雀”。它們預示著一個更大的威脅即將到來,隨著空中越來越多的機器人出現(xiàn),很快,在我們的街道和人行道上也會相繼出現(xiàn)機器人。

干貨直達??
