<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          AI聯(lián)結(jié)的社會

          聯(lián)合創(chuàng)作 · 2023-10-05 15:42

          隨著人工智能技術(shù)的不斷發(fā)展,人類與人工智能共生的時代開始了。

          全球聯(lián)機協(xié)作的人工智能,將構(gòu)筑一個深度改變?nèi)祟惿畹摹叭斯ぶ悄芫W(wǎng)絡(luò)”。

          在人工智能網(wǎng)絡(luò)化時代,我們將面臨不可預測和控制的風險。我們的社會是否已為迎接迎接這一切做好準備?

          科幻小說與生活的邊界即將模糊,“電車難題”不再是腦海中單純的思想實驗。

          人工智能是否能像人類一樣,對自己的行為負責?

          大數(shù)據(jù)下無處不在的“人物側(cè)寫”,還有“責任的空白”“數(shù)字污名”“就業(yè)難民”等全新社會問題,是否會催生新的歧視與壓迫?

          ……

          面對可能出現(xiàn)的倫理難題和社會風險,我們當下又能做些什么?

          圍繞這些問題,日本信息學界、法學界、社會學界、人工智能技術(shù)領(lǐng)域的多位前沿學者從國際化、專業(yè)化的視角出發(fā),進行了深入探討。

          學者們通過“情景設(shè)定”的方式,對人工智能網(wǎng)絡(luò)化時代的風險和危機進行了預演,并在社會政策和法律應對層面,提出...

          隨著人工智能技術(shù)的不斷發(fā)展,人類與人工智能共生的時代開始了。

          全球聯(lián)機協(xié)作的人工智能,將構(gòu)筑一個深度改變?nèi)祟惿畹摹叭斯ぶ悄芫W(wǎng)絡(luò)”。

          在人工智能網(wǎng)絡(luò)化時代,我們將面臨不可預測和控制的風險。我們的社會是否已為迎接迎接這一切做好準備?

          科幻小說與生活的邊界即將模糊,“電車難題”不再是腦海中單純的思想實驗。

          人工智能是否能像人類一樣,對自己的行為負責?

          大數(shù)據(jù)下無處不在的“人物側(cè)寫”,還有“責任的空白”“數(shù)字污名”“就業(yè)難民”等全新社會問題,是否會催生新的歧視與壓迫?

          ……

          面對可能出現(xiàn)的倫理難題和社會風險,我們當下又能做些什么?

          圍繞這些問題,日本信息學界、法學界、社會學界、人工智能技術(shù)領(lǐng)域的多位前沿學者從國際化、專業(yè)化的視角出發(fā),進行了深入探討。

          學者們通過“情景設(shè)定”的方式,對人工智能網(wǎng)絡(luò)化時代的風險和危機進行了預演,并在社會政策和法律應對層面,提出了精彩的建議。

          編輯推薦

          ·AI網(wǎng)絡(luò)化將給人類社會帶來無法預測的重大變化,我們是否做好了應對風險和挑戰(zhàn)的準備?

          ·日本信息學、法學、社會學、人工智能技術(shù)領(lǐng)域的前沿學者,關(guān)于人類如何與AI共生進行跨界對話,在社會治理和法律制度層面提出務(wù)實的對策建議。

          ·深度討論智聯(lián)社會的隱私與倫理、信息安全、AI開發(fā)準則、政治參與、知識產(chǎn)權(quán)、勞動就業(yè)等核心問題。

          ·全球視角,橫向比較美國、歐洲、日本在相關(guān)領(lǐng)域的政策,提供多國經(jīng)驗。

          ·通過情景設(shè)定實例和“思想實驗”,將讀者代入未來的預設(shè)場景,嘗試回答文學作品、電影和游戲中的經(jīng)典問題:在AI網(wǎng)絡(luò)化時代,人類如何做才能既利用人工智能為人類服務(wù),又保護人類的基本利益?

          ·北京大學中國社會與發(fā)展研究中心主任邱澤奇教授作序,哈佛大學、清華大學、中國人民大學、廈門大學等國內(nèi)外高校的多位學者聯(lián)合推薦。

          媒體推薦

          法律工作者在直面“司法智能化”的同時,也扮演著優(yōu)化規(guī)則的守衛(wèi)者角色。如何解決AI衍生的個人隱私和信息安全問題?如何優(yōu)化法律制度和管理體系?想要深入了解AI網(wǎng)絡(luò)化時代法律問題的讀者必將欣喜于閱讀此書。

          ——齊樹潔 廈門大學法學院訴訟法學教授、司法改革研究中心主任

          人工智能網(wǎng)絡(luò)化正大踏步朝我們走來。人類做好了與之相處的準備嗎?在倫理上、法律上應當如何應對人工智能與人的關(guān)系?日本學界精英以預設(shè)情景做出了前瞻性分析,啟人心智,讓人跨越專業(yè)門檻一窺究竟。這是一本促人面向未來的好書,忙碌的人們?nèi)舴稚黹喿x,定有收獲。

          ——任劍濤 清華大學社會科學學院政治學系教授,教育部“長江學者”特聘教授

          在人類面對網(wǎng)絡(luò)化的智能機器時,如何保障人類的基本利益:身體、人格、責任、尊嚴?

          以我對人工智能有限的認知,我以為,這樣的提問非常日本!工業(yè)化的歷史表明,同在儒家文化圈,日本卻是一個非常務(wù)實的國家。人工智能的發(fā)展顯然還沒有走到真正威脅人類的時刻,探討人工智能場景下的人類利益,顯然是一個虛擬問題。務(wù)實的日本人在遭遇一個虛擬問題時,又如何處理呢?《AI聯(lián)結(jié)的社會》恰恰展現(xiàn)了務(wù)實的智慧。

          ——邱澤奇 北京大學中國社會與發(fā)展研究中心主任,教育部“長江學者”特聘教授

          人工智能(AI)技術(shù)必將帶來一場革命性的變革,將使人的生活方式、交往方式以及思維方式發(fā)生根本性的轉(zhuǎn)型,因而,人工智能將為我們展現(xiàn)出一個不同于以往和現(xiàn)在的未來。我們生活的這個時代,見證了人工智能技術(shù)的興起,也應為人類在不久的將來進入人工智能時代做好準備??梢哉f,從20世紀后期起,人工智能的概念就已經(jīng)超出了科學研究和技術(shù)創(chuàng)新的領(lǐng)域,得到了人們的廣泛關(guān)注,特別是在人們的觀念中造成了震蕩。也許,我們距離人工智能時代的到來還有一段較長的路,但是,我們在今天就需要在思維、觀念上做好迎接這個時代到來的準備,特別是要充分估計到人工智能將對人類社會造成什么樣的影響。所以,我們渴望閱讀這個方面的作品。

          ——張康之 中國人民大學公共管理學院行政學系教授,教育部“長江學者”特聘教授

          目前,人工智能倫理準則已經(jīng)在全球范圍內(nèi)達成基本共識。在此共識基礎(chǔ)上,《AI聯(lián)結(jié)的社會》致力于解決以下四方面的關(guān)鍵問題:一是探討“AI網(wǎng)絡(luò)化”治理的必要性及其方向;二是AI研究開發(fā)相關(guān)問題的闡述;三是AI網(wǎng)絡(luò)中的信息流通及正當使用;四是AI網(wǎng)絡(luò)化將對社會產(chǎn)生的深遠影響。作者們獨辟蹊徑,深入淺出地闡釋了AI帶來的信息安全問題、基本法治制度和控制管理體系構(gòu)成,并附有大量虛擬情景實例,是一部扎實、詳盡的優(yōu)秀作品。

          ——趙鳴博 東華大學信息科學與技術(shù)學院教授,IEEE會員

          在醫(yī)學領(lǐng)域,AI智能診斷和精準醫(yī)療一方面為疾病的診斷和治療提供了新手段,另一方面也涉及數(shù)據(jù)隱私、診斷可靠性等問題?!禔I聯(lián)結(jié)的社會》討論了AI技術(shù)在多領(lǐng)域(也包括醫(yī)療領(lǐng)域)應用所涉及的法律和倫理問題,值得相關(guān)研究人員和臨床醫(yī)生參考。

          ——涂毅恒 哈佛醫(yī)學院腦科學與人工智能專業(yè)講師

          近十年來,世界各地的許多高校紛紛成立了AI研究中心和學院,培育了一大批AI人才,進一步增強了AI在各個領(lǐng)域的影響力。隨著AI技術(shù)的快速發(fā)展和廣泛應用,關(guān)于AI安全、倫理和法律方面的討論日益增多且愈發(fā)重要。本書對AI尤其是AI網(wǎng)絡(luò)化的倫理和法律進行了仔細探討,指出了許多值得AI研究者、AI產(chǎn)品和服務(wù)生產(chǎn)者、使用者以及政府部門深思和研究的問題,是一部受眾廣泛、內(nèi)容充實、又很具有國際視野和前瞻性的作品。

          ——樊繼聰 康奈爾大學運籌學與信息工程學院博士后研究員

          試讀章節(jié)

          中文版序

          機器的智能和人類的智慧

          圍繞人工智能主題,我讀過很多作品。一些書名看起來很學術(shù)的,讀起來卻非常科普。也許是人工智能話題炙熱的緣故,除了科普作家,某些學有專長的著名專家也加入其中,但對人工智能卻是一知半解,有關(guān)人工智能的研究成果也是魚龍混雜。我手里的這本是否也是其中之一呢?

          我抱著嘗試的心態(tài)讀下去。這一讀,便沒有放手,直至卷終?!禔I聯(lián)結(jié)的社會:人工智能網(wǎng)絡(luò)化時代的倫理與法律》(以下簡稱《AI網(wǎng)絡(luò)化》)是一本論文集。通常,論文集會依照論文的主題匯集,難以讓討論具有內(nèi)在邏輯一致性。這本論文集不同的是,它的主題內(nèi)在邏輯一致性很強,從這個角度來說,它更像一本合著成果。在假定人工智能自身形成網(wǎng)絡(luò)的場景下,會給人類帶來哪些挑戰(zhàn)。圍繞這一主題,全書劃分為六個部分,總論部分交代了問題和方法,第二部分探討人工智能的研發(fā)原則,第三部分討論人工智能數(shù)據(jù)、信息、知識的流通和使用,第四部分分析在人工智能網(wǎng)絡(luò)化的場景里人類的隱私與安全,第五部分探索人類社會基本準則面對的挑戰(zhàn)和應對之策,第六部分再回到人類自身,討論保障人類珍視的尊嚴、人格與責任。

          簡要的內(nèi)容構(gòu)成介紹應該能讓讀者了解,這是一部接地氣的著作。與天馬行空地探討智能時代、機器崛起、人工智能時代的作品不同,與聳人聽聞地斷言智能革命、機器取代人類、奇點臨近的作品也不同,《AI網(wǎng)絡(luò)化》的出發(fā)點是,我們知道人工智能的發(fā)展是一股歷史潮流,勢不可當;我們不用像算命先生那樣去預測什么時候人工智能時代會到來;我們也不用像森林里的小女孩那樣不斷呼喊狼來了,人工智能要奪走我們的工作;我們嘗試著回答,人工智能會以什么樣的形態(tài)到來,在這個進程中,人類可以做什么來保證人類的基本利益,即人還是人!說得更加簡潔一些,在人類面對網(wǎng)絡(luò)化的智能機器時,如何保障人類的基本利益:身體、人格、責任、尊嚴?

          以我對人工智能有限的認知,我以為,這樣的提問非常日本!工業(yè)化的歷史表明,同在儒家文化圈,日本卻是一個非常務(wù)實的國家。明治維新以后,我們不知道日本人提出了什么驚世駭俗的理論,卻知道日本的產(chǎn)品行銷世界,對日本產(chǎn)品的質(zhì)量,鮮有人懷疑。這源于日本人的務(wù)實。人工智能的發(fā)展顯然還沒有走到真正威脅人類的時刻,探討人工智能場景下的人類利益,顯然是一個虛擬問題。務(wù)實的日本人在遭遇一個虛擬問題時,又如何處理呢?《AI網(wǎng)絡(luò)化》同樣展現(xiàn)了務(wù)實的智慧:日本專家們采用了情境錨定法(Anchoring Vignettes)。情境錨定法是社會調(diào)查中面對未來時常用且有效的測量方法。它假設(shè)一個情境,實在的、可以在頭腦中呈現(xiàn)的情境,然后,詢問人們面對情境的決策和行為取向。在理論究中,這樣的方法也被稱為思想實驗(Thought Experiment),是理論邏輯演繹的常用且有效的方法。

          運用情境錨定法,《AI網(wǎng)絡(luò)化》給定了一個討論的初始:在未來,無論是專用人工智能還是通用人工智能,人工智能自身形成了一個網(wǎng)絡(luò),“使用者不僅可以自己設(shè)置,也可以接受他人設(shè)置”(第10頁),就像是《黑客帝國》里的機器帝國,人工智能甚至具有了擬人的“意志”,“擁有與人類智能相關(guān)的功能;能夠通過對信息、知識進行系統(tǒng)化處理,得到數(shù)據(jù)、信息和知識”(第6頁),“滲透到社會整體之中,進而使人類和人工智能網(wǎng)絡(luò)共存,在各種社會場景中,都將可能實現(xiàn)人工智能、物和人的相互聯(lián)結(jié)”(第11頁),人類如何做才能既利用人工智能為人類服務(wù),又保護人類的基本利益?

          在汗牛充棟的人工智能研究中,人工智能網(wǎng)絡(luò)化是一個被忽略或被默認的議題。說是被忽略,至少在我讀到的文獻中這是第一本將其特別強調(diào)的作品。說是被默認,在眾多討論人工智能的研究中,作者們往往忽略了人們生活在一個政治和社會制度有差異的世界,國家技術(shù)能力的強弱和國家之間關(guān)系的好壞并非與人工智能創(chuàng)新和應用沒有關(guān)系。忽視既存的制度約束和假設(shè)人類的一般存在看起來有利于討論,實則是學術(shù)的不負責任。《AI網(wǎng)絡(luò)化》突出強調(diào)人工智能網(wǎng)絡(luò)化的現(xiàn)實社會情境,也是學術(shù)務(wù)實的另一個證明。

          《AI網(wǎng)絡(luò)化》首先呈現(xiàn)的不是人工智能帶給人類的便利,而是風險?!斑@些風險與人工智能網(wǎng)絡(luò)化為社會帶來的便利同在,有時可能超越國境,超越現(xiàn)實與虛擬的界限,瞬時擴散出去?!保ǖ?3頁)借用既有的研究成果,《AI網(wǎng)絡(luò)化》將風險區(qū)分為功能風險和制度風險,認為其中重要的不是功能風險,而是制度風險。因此,風險分析是人類面對人工智能挑戰(zhàn)的出發(fā)點,包括風險評估、風險管理和風險傳播(第14頁)。風險分析的目的,不是為了甩鍋,而是讓風險明確化,進而確保公平競爭,讓風險與收益達成平衡。在這里,我們既看到了日本人務(wù)實的一面,又看到儒家文化的深層存在。

          設(shè)定人工智能網(wǎng)絡(luò)化的前提,自然地提出了人工智能治理的人類化議題?!禔I網(wǎng)絡(luò)化》的主張是,人工智能的治理,一定是國際的,而不是一國的。為促進技術(shù)創(chuàng)新和應用,初始期宜采用軟性治理,治理內(nèi)容除了確保各種價值觀,還應確保廉潔、透明性、可控性、安全性、隱私性、安保體系、公正性等(第18頁)。為了既促進人工智能的發(fā)展,給人類帶來更多便利,又保障治理的有效性,約束人工智能可能帶來的風險,《AI網(wǎng)絡(luò)化》認為,一個由人工智能高度互聯(lián)建構(gòu)的智聯(lián)社會(第20頁),應該遵從八項基本原則:“第一,所有人都可以受惠;第二,保障個人的自主性及人的尊嚴;第三,保證革新性研究開發(fā)的持續(xù)與公平競爭;第四,堅持可控性和透明性;第五,利益相關(guān)方的參與;第六,兼顧虛擬世界與現(xiàn)實社會;第七,通過超越空間的協(xié)調(diào)合作實現(xiàn)有活力的區(qū)域社會;第八,通過分散合作解決全球性問題?!保ǖ?1頁)

          與上述原則關(guān)聯(lián)密切的被分解為了人工智能研發(fā)中的人類倫理與秩序的貫徹,人工智能使用中的數(shù)據(jù)、信息、知識等價值觀,人工智能與人類的關(guān)系,包括如何保障人的尊嚴、人格與責任以及支撐因素如隱私、安全、既存的社會準則等。貫穿《AI網(wǎng)絡(luò)化》始終的是,保障人類基本利益的原則被置于在最優(yōu)先的位置,基于此,《AI網(wǎng)絡(luò)化》里出現(xiàn)了一些日文風格突出的概念,如“聯(lián)結(jié)”(第11頁)、“人物側(cè)寫”(第48頁)、“立人設(shè)”(第62頁),也引用了眾多流行的概念,如“隱私設(shè)計”(Privacy by Design,PbD)(第206頁)、“切斷開關(guān)”(Kill Switch)(第208頁)等。它意味著《AI網(wǎng)絡(luò)化》的討論既不是日本人自己圈子內(nèi)的討論,也不是脫離了日本的話術(shù)販賣,而是從日本的關(guān)切出發(fā),面向整個世界的分析和探討。

          參與討論的近20位作者,既有業(yè)界人士,也有學界新秀。從《AI網(wǎng)絡(luò)化》文本可以看出,他們的一個共同特點是,都非常熟悉國際上人工智能探討的熱點和難點問題,表達的也是他們對這些熱點和難點的觀點。人工智能數(shù)據(jù)是大數(shù)據(jù)問題的一個子集,歐盟有GDPR,美國有關(guān)聯(lián)的法律卻沒有一般的法律,中國在民法典中有涉及,日本的《個人信息保護法》也只是關(guān)聯(lián)的法律。到目前為止,數(shù)字化前沿國家對此還沒有達成一致。我以為,根本不可能達成一致,盡管其基本出發(fā)點是保護人類利益。但我們知道,機器并沒有利益,機器的利益實際上是掌握機器的人的利益,電車難題(見第五部分的討論)便是典型的例子。當我們在人工智能里設(shè)定人類生命優(yōu)先時,不是犧牲機器的問題,而是優(yōu)先保護誰的生命的問題。如此,問題又回到了人類,而不是人與機器的關(guān)系。為此,我更愿意把問題修訂為,當人工智能網(wǎng)絡(luò)化將帶給人類更大利益同時也帶來更大風險時,如何分配這些利益才是對大多數(shù)人更加有利的,也是對大多數(shù)人而言更加有利于控制風險的?

          在這個問題面前,人類自身的歧視、分化、極化、壟斷等將會是長久且難以達成平衡的議題。我們期待一個可以促進技術(shù)發(fā)展的競爭性研發(fā)生態(tài),卻又希望避免一個由發(fā)展帶來的壟斷性市場,回避一個由利益分配嚴重不均所生產(chǎn)的極化社會,還希望避免一個因倫理失衡而可能帶來的毀滅性后果,最終希望做到人類自洽(第307頁),它,的確需要超級智慧。《AI網(wǎng)絡(luò)化》至少是面向超級智慧的有益嘗試。

          邱澤奇

          2020年5月

          AI網(wǎng)絡(luò)時代的刑事法律

          立教大學研究生院法務(wù)研究科教授

          深町晉也

          情景設(shè)定

          事例1 自動駕駛汽車與過失犯

          X1購買了由汽車公司Y1所制造、販賣的自動駕駛汽車(第3級),下雨天的時候普通公路上以自動駕駛模式、每小時40公里的速度行駛。在X1沒有注視前方的時候,走在道路左側(cè)人行道上的小孩A,松開了父母的手進入了機動車道。自動駕駛汽車執(zhí)行緊急應對措施,切換成駕駛員手動模式,但是由于X1沒有注視前方,導致其瞬間的反應不夠及時,來不及緊急制動。這時X1向右打方向盤,想要避免撞到A,但此時后方有一輛摩托車超速行駛而來,自動駕駛汽車沒能避開與摩托車的碰撞,最后導致摩托車翻車,駕駛摩托車的B死亡。

          事例2 AI的刑事責任與保護生存權(quán)之間的兩難境況

          X2購買了由汽車公司Y2所制造、售賣的自動駕駛汽車(第4級或者第5級),在普通公路上以40公里的時速行駛。本案中的自動駕駛汽車裝有防沖撞系統(tǒng),可以通過緊急制動避免沖撞,在判斷已經(jīng)來不及緊急制動的情況下,其設(shè)計是向左右打方向盤來避免沖撞。但如果是在即便采取了這樣的緊急措施也無法避免沖撞的情況下,比如說如果緊急制動的話會與后面的車輛沖撞、向左打方向盤的話會與行人沖撞,向右打方向盤的話會與后方駛來的摩托車沖撞的情況下,則會采取使受害人減少到最低的措施。X2在單行道上行駛,前方一輛迎面駛來的汽車沖向X2,因此本案中的自動駕駛汽車就只能向左或者向右打方向盤,但是左側(cè)人行道上有一位行人C,右側(cè)的人行道上有一小群人正站著說話,因此本案中的自動駕駛汽車選擇向左打方向盤,雖然避免了與前方車輛的沖撞,但是卻碾過了C導致其死亡。

          一 引言

          在AI網(wǎng)絡(luò)時代,短期問題、中期問題和長期問題的主題可能會是不同的。因此需要在刑事法中思考的問題也與多個話題相關(guān)。比如說,某些人出于惡意,在AI中裝入令其失控暴走的程序漏洞(bug),或者對其進行黑客攻擊,這樣的事例會給AI網(wǎng)絡(luò)帶來嚴重威脅。對世界各國來講這都是一個重要問題。比如說,德國在2014年網(wǎng)絡(luò)犯罪相關(guān)報告書中,指出了IoT存在的問題,稱不僅僅是智能手機,智能家電等設(shè)備也有被惡意操控的危險性,為我們敲響了警鐘。但是,本文將不涉及這些出于主觀意圖的黑客攻擊等問題。本文所探討的對象是,AI網(wǎng)絡(luò)雖然以社會利益最大化為目的,但卻不是由于有意的攻擊,而是由于AI采取了有問題的運作方式而導致出現(xiàn)了權(quán)利侵害的情況。在這里舉的案例,就是開頭的情景設(shè)定里提到的,由自動駕駛汽車導致的傷亡事故。本文以自動駕駛汽車為主題,對刑事法中可能產(chǎn)生的問題展開討論。

          二 自動駕駛汽車與過失犯罪

          1.什么是自動駕駛汽車

          自動駕駛汽車,或者自動運行汽車是指,搭載了即便不通過駕駛?cè)藛T的操作也能夠安全地移動到指定目的地(自動駕駛)的系統(tǒng)的汽車。這種自動駕駛是通過AI軟件實現(xiàn)的,因此自動駕駛車也可以認為是安裝了這樣的AI軟件的汽車。之所以引入自動駕駛汽車,是因為交通事故(死傷事故)中超過九成,都與駕駛員的人為失誤相關(guān),因此為了降低由人為失誤引發(fā)事故的可能性,增大社會獲得的便利與益處,人們認為引入自動駕駛汽車基本上是符合社會預期的。特別是在今后日本老齡化社會問題將進一步加劇的情況下,與中青年人相比,高齡者的認知、判斷能力將會降低,因此這種自動駕駛汽車的登場,將令高齡者可以享受到既安全又舒適的移動,從這個角度來講自動駕駛汽車的意義很大。

          根據(jù)2016年由SAE(Society of Automotive Engineers,美國汽車工程師學會)提出的標準,自動駕駛汽車根據(jù)其可自動化的程度,分為從0到5的6個等級。導入了能夠?qū)π旭偔h(huán)境進行自動監(jiān)視的系統(tǒng)的自動駕駛汽車都超過了第3級(有條件的自動駕駛),而第3級中,由于某種情況(比如說惡劣天氣)導致自動駕駛系統(tǒng)對環(huán)境監(jiān)測能力受限時,就要靠駕駛員人為判斷,駕駛員必須恰當處理(稱為“人工接管”[override])。到了第4級(高度自動駕駛)或者第5級(完全自動駕駛),則完全不考慮這種人類駕駛員人工接管的必要性,徹底依靠自動駕駛系統(tǒng)進行應對。像這樣,第3級的自動駕駛汽車與第4級以上的自動駕駛汽車,在發(fā)生重大緊急事件之時,是否需要人類駕駛員做出妥當處理這一點上有所不同,特別是從刑事責任的角度來看,具有很大差異。

          2.第3級自動駕駛汽車與死傷事故

          接下來我們來討論一下,在開頭的情景設(shè)定中,到底應該由誰來對受害人的死亡承擔刑事責任。事例1與事例2最大的不同就是,前者中基本應由人類駕駛員來承擔過失責任,而后者中的駕駛員則基本不需要對自己的過失負責。

          在事例1中,自動駕駛系統(tǒng)要求駕駛員X1自主控制汽車。因此,可能會有人認為,只要存在自己對汽車進行操縱導致了B的死亡這一事實,X1的過失駕駛致死罪(《汽車駕駛死傷處罰法》第5條)就理應成立。但其實,這里值得討論的問題是,到底應該判定X1在什么問題點上產(chǎn)生了過失呢?在刑法中,如果要認定過失罪成立,就必須要認定有違反注意義務(wù)的情況,那么X1具體在哪些點上違反了注意義務(wù)呢?

          汽車駕駛員在駕駛汽車時必須承擔的義務(wù)中,最基本的一條就是注視前方。也就是說,道路的狀況時刻都在發(fā)生變化,駕駛員要及時并且恰當?shù)貞獙@些變化,因此必須要時刻注視前方以取得與道路狀況相關(guān)的信息。即便是第3級的自動駕駛汽車通過自動駕駛系統(tǒng)行進的時候,我們?nèi)哉J為駕駛員注視前方是其不可免除的基本義務(wù)。也就是說,自動駕駛系統(tǒng)在對汽車進行控制時有可能隨時切換成駕駛員的人工接管模式,而作為駕駛員必須要為人工接管模式做好準備,時刻注視前方獲取道路狀況信息。所以說,X1即便是在以自動駕駛模式行駛的過程中,也不能免除掉注視前方義務(wù),必須要時刻注視前方。

          但還是有人可能會對這種思維模式產(chǎn)生質(zhì)疑。舉個極端的例子,我們是否能夠要求駕駛員在自動駕駛模式行駛的時候,也永遠像自己駕駛時一樣集中注意力呢?第3級的自動駕駛汽車,在進入人工接管模式之前,所有駕駛?cè)蝿?wù)都是由自動駕駛系統(tǒng)進行處理的,而駕駛員也以這些系統(tǒng)為前提,也就是說駕駛員認為系統(tǒng)進行的這些處理是恰當?shù)?,是值得信任的,并以此為前提乘坐自動駕駛汽車。駕駛員對自動駕駛系統(tǒng)的這種信賴,恐怕是法律沒有考慮到的。

          在刑法中有一個原則,即行為人如果是在信賴他人行動的情況下,即便是由于該行為人采取了不恰當?shù)男袨槎鴮е虑趾α怂说臋?quán)益,也不會對行為人追究責任(信賴原則)。適用于信賴原則的,基本上都是基于人類行為的問題。在事例1中,如果可以信任汽車公司Y1,認為其能夠設(shè)計、制造出正確恰當運行的AI,那么即便是AI的運行出現(xiàn)了不恰當之處導致侵害了他人的權(quán)益,那么也應該認為行為人不為此承擔責任。但是,在事例1中,切換到人工接管模式本身是恰當?shù)倪\行,所以并不是自動駕駛系統(tǒng)進行了不恰當?shù)倪\作因此催生了事故。也就是說,第3級自動駕駛汽車的設(shè)計就是以人工接管模式為前提的,因此只要不是出現(xiàn)了本來完全不應該切換到人工接管模式之時卻被切換到了人工接管之類的事情,那么就無法免除X1的責任。

          但即便信賴原則在這里不適用,然而回到前面提到的疑問,對于沒有親自操縱和駕駛的駕駛員,到底是否能夠期待他能像自主駕駛的駕駛員那樣專心地注視前方呢?這個問題是依然存在的。即便是自主駕駛的駕駛員,有的時候也會注意力渙散,一邊看著其他東西一邊駕駛的情況并不少見。非自主駕駛的時候就更是如此,當然也可以想象駕駛員會因為無聊而看手機。考慮到這種狀況,對那些非自主駕駛的駕駛員也同樣要求完成注視前方義務(wù),違反義務(wù)就要對他們處以交通違章罰款,并(根據(jù)違章扣分的累計)進行暫停、吊銷其駕照等行政制裁,或(在發(fā)生事故的情況下)施以刑罰,這樣是否妥當呢?如果同樣要求完成注視前方義務(wù),那么在第3級自動駕駛汽車的用戶界面中,就應該設(shè)計并安裝一些功能,讓那些非自主駕駛的駕駛員也要注視前方,這種設(shè)計是非常重要的。除此之外,對于緊急事態(tài)下被切換到人工接管模式的駕駛員,到底能否及時進行應對,這又是另外一個問題了。切換到人工接管模式所需要的時間,最短的情況下只有4秒11,即便注視著前方,也很有可能出現(xiàn)無法靠緊急制動避免事故的情況。這種情況下,能否依靠緊急制動以外的方法來避免事故就成了問題的關(guān)鍵。事例1中,如果想要避免與A的沖撞,那么只能向右打方向盤,由于B也在超速行駛,由此導致了本案中的沖撞。在這種情況下,駕駛員X1有可能相信B會遵守最高限速行駛,這就可以適用剛才所提到的信賴原則。那么就能得出結(jié)論,否定掉X1的過失責任。

          第4級以上的自動駕駛汽車與死傷事故:AI的刑事責任

          在事例2中討論的是第4級以上的自動駕駛汽車,在這個事例中完全不考慮人類會對駕駛產(chǎn)生什么影響,可以說本案是一個完全起因于自動駕駛系統(tǒng)的事故案例。但是,在日本所批準的道路交通相關(guān)條約(通常所說的《日內(nèi)瓦公約》)中,第8條第1項中就規(guī)定了車輛中必須要有駕駛員,而根據(jù)第4條的定義規(guī)定,所謂駕駛員是指在道路上駕駛車輛的人。因此,第4級以上自動駕駛汽車,人類是無法參與其中的,而這樣的自動駕駛汽車是否滿足條約的要求,就成了一個關(guān)鍵性問題。假如說前提條件就是駕駛員一定要是人類,那么不修訂《日內(nèi)瓦公約》的話,第4級以上自動駕駛汽車根本就不會被允許在道路上行駛。

          那我們首先假定,我們要修訂《公約》,并允許第4級以上自動駕駛汽車在道路上行駛。那這里出現(xiàn)的問題就是,從理論上來講,是否可能對設(shè)計這種自動駕駛汽車的設(shè)計人員,以及構(gòu)成自動駕駛汽車的系統(tǒng)(程序)追究刑事責任。前者是對自然人追究責任,而后者是對系統(tǒng)或者說AI這樣的非自然人追究刑事責任,兩者的性質(zhì)截然不同。在這里,首先對最近大家都很關(guān)心、樂于討論的后者展開探討。

          從傳統(tǒng)刑法學的立場出發(fā),我們認為所謂刑罰,只能施加于像自然人那樣,具有一定人格的存在。從這個觀點出發(fā),那么能否認為自動駕駛汽車的系統(tǒng),即AI是擁有人格的呢?這就是問題的關(guān)鍵點。

          比如說在德國就有學者從正面對是否可以認定AI擁有電子人格一事展開了討論。另外,在日本也有從傳統(tǒng)刑法學的立場出發(fā),針對是否可以肯定AI具有行為性和責任能力一事展開的討論。像這種問題設(shè)定,即是否可以肯定AI具有人格這一問題,還有可能進一步分化為兩種路徑。第一種路徑是從與自然人類似的觀點出發(fā),賦予其人格基礎(chǔ);第二種路徑則不討論與自然人的類似之處,只討論是否認可AI的人格并對其適用刑法。

          第一種路徑中重要的問題是,AI擁有怎樣的性質(zhì)會導致其與人類相似。比如說,如果AI具有跟人類同樣的認知能力、判斷能力(責任能力),就可以認定與人類相似,進而有可能被追究刑事責任。從這樣的路徑出發(fā),預想過一些類人機器人AI(典型的就是“鐵臂阿童木”和“終結(jié)者”),并認定它們是擁有人格的。但是另一方面,越是強調(diào)其與人類相似,那么就越有可能要超越追究刑事責任的前提——賦予其“人格”的基礎(chǔ),而是變成要討論其是否

          與人類一樣需要保護,這一點有可能成為問題關(guān)鍵。從這種理解出發(fā),最后對這個問題的討論甚至可能會發(fā)展為,如果把與人類相似的AI破壞掉或刪除其程序,是否就與“死刑”同等。在德國這種否定死刑的國家,這樣處置的權(quán)利本身都有可能被否定掉。但是,在與法人的人格(法人格)相關(guān)的討論中,則不會產(chǎn)生這樣的問題,其原因就是,與人類一樣需要保護中所講的“類人特性”,明顯是一種過度的要求。與人類相似這一路徑,有可能會導致陷入“人之所以為人的根本到底是什么”(沒有終結(jié))的爭論,因此必須要進行慎重的應對。

          而第二種路徑則不去探究AI與人類的相似性,而是探究是否可能賦予AI人格。但這里的問題就是,不管它是否與人類相似,都肯定AI擁有人格,并且使其適用刑法,這件事到底在刑法上具有什么意義。以法人處罰為例,對法人施加刑法的意義在于,與自然人不同,對法人進行金錢處罰可以發(fā)揮刑罰的抑止效果。那么假如說對AI進行金錢處罰,可以得到某些抑止效果嗎?如果說AI本身具有某些經(jīng)濟利益,而且具有以增大這些利益為目的而采取行動的特質(zhì),那么金錢處罰就可以看作一種“打擊”手段。但通常來講,經(jīng)濟利益是專屬于那些制造、販賣AI的自然人和企業(yè)(法人)的,對AI處以罰金是沒有意義的。將與自然人相同的自由刑(懲役、監(jiān)禁)施加到AI身上也是沒有意義的,損壞AI或消除程序,這種相當于對AI處以“死刑”的刑罰,也很難被認為是有意義的。

          所謂刑罰,必須要令被罰對象感受到一定的負擔,而且國家要將一定的污名(stigma)附加給該對象,也就是說,讓國家對AI傳達法律上的指責24,說“你這家伙做出了某種壞的行為,是應該受到大家批判的AI”。我們必須思考這件事到底具有怎樣的意義。便當人類幼兒做了什么違法行為的時候,國家并不會以傳達法律上的指責的形式附加污名到該幼兒身上,這是因為,我們在社會中,只會對對等的成員做出法律上的指責。也就是說,這里需要探討

          的問題是,我們到底為什么需要將AI看作社會中對等的成員、人格的主體。

          而且,如果要對AI施加能給它帶來不利的處分,比如說破壞掉AI,刪除其程序等,即便不采用刑罰的形式也可以做到。對人類可以施加不以其責任能力為前提的處分(治安處分),所以從理論上來講,對于AI,即便不討論它是否是人格主體,是否具有責任能力,單純對其施加這樣的處分也是可能的。從這個角度思考的話,我們就會質(zhì)疑,討論“AI是否可能成為適用刑罰的對象”這種問題到底有什么意義。因此,追究AI本身的刑事責任這一方向,就可以被否定掉了。

          4.第4級以上自動駕駛汽車的死傷責任:設(shè)計者的責任

          在無法追究AI本身刑事責任的情況下,接下來馬上要處理的問題就是,設(shè)計、制造這些AI的人的責任。如果說AI的判斷有瑕疵,那么設(shè)計出這些擁有瑕疵的AI的設(shè)計者和制造者的制造物刑事責任就成了問題的關(guān)鍵所在。另外,明明知道這些瑕疵的存在,卻沒有從市場上回收該AI(在本案中是該自動駕駛汽車)的情況下,還要另外追究其不作為的責任。

          那針對這種情況,事例2中需要探討的問題就是,到底能不能說汽車公司Y2,在該自動駕駛汽車的設(shè)計、制造過程中有一定的瑕疵呢?或者更確切地講,催生本事故的自動駕駛系統(tǒng)的判斷,是否有瑕疵?為了探討這個問題,我們要在下一小節(jié)中對本案中的自動駕駛系統(tǒng)的程序設(shè)定展開討論,即在無法避免一定的沖撞事故的情況下,則要將損害減少到最小限度,我們應該如何評價這種程序設(shè)定呢?

          三 自動駕駛汽車與生命權(quán)之間的兩難境況

          1.生命權(quán)的兩難境況

          所謂生命權(quán)的兩難境況,就是指最近很多人討論的“電車難題”,在德國刑法學中也被稱為“扳道工案例”。30其中最典型的就是這個事例。一輛失控的電車在軌道上行駛,如果讓它繼續(xù)在這個軌道上行駛的話,該線路上將有5個人來不及逃離,被電車碾死??吹竭@種情況的扳道工甲,為了挽救這5個人的生命,改變了列車運行的軌道,導致在第二條線路上的乙被電車碾死。甲認為,讓乙一個人死亡這個結(jié)果是不得已而為之。

          在這個事例中,可以認為由于甲改變軌道的行為,導致了乙的死亡,因此殺人罪是成立的。但是,在一定有某一條線路上的人無法避免死亡的狀況之下,為了挽救5個人的生命而犧牲1個人的行為,是否應該按照殺人罪進行處罰呢?

          像這種生命權(quán)的兩難境況中,需要探討的問題就是,緊急避險是否成立。所謂緊急避險是指,當發(fā)生某種不是由于任何人的過失而產(chǎn)生的危險的時候,在一定條件之下,允許將這種危險轉(zhuǎn)嫁給他人。特別是在緊急避險的情況成立之時,為了保全更為重大的利益,而侵害某種小的利益,很多時候也會被認為是必要的。

          那在“扳道工事例”這樣的情況之下,能否將甲的行為看作緊急避險進而將其行為正當化呢?德國刑法學對這個問題展開了積極的探討,在德國《刑法》中通常認為,對于這種與生命權(quán)相關(guān)的兩難境況,要否定任何試圖將其正當化的行為。從這個立場出發(fā),將甲的行為定義為所謂正當化的緊急避險(阻止違法性的緊急避險)恐怕是不成立的。

          但與之相對,日本《刑法》第37條所規(guī)定的緊急避險,卻不一定會得出這種觀點。這是因為,日本的緊急避險只要避難行為“導致的損害不超過所避免的損害”就可以成立,乙一個人死亡這種侵害結(jié)果,就可能被評定為,并不超過被避免了的5個人的生命被侵害這一結(jié)果。從這個觀點出發(fā),生命權(quán)的兩難境況中,只要是有想要將損害限制到最小化的意圖,就有可能被認定為緊急避險。

          2.自動駕駛汽車在變成階段的問題

          在德國,對扳道工事例中任何行為的正當化都予以否定,這已經(jīng)是公認的觀點,但是對于自動駕駛汽車的程序設(shè)計,卻有另外一種觀點更為有力。根據(jù)這種觀點,實際上產(chǎn)生生命侵害的時候是否可以從事后的觀點出發(fā)對其進行正當化,和事前是否能夠采取某種策略避免死亡事故,是兩個不同的問題點。在前者,想要事后對生命侵害這一結(jié)果進行正當化是不被容許的,但是后者,事前就要有將損害最小化的理念則被規(guī)定為義務(wù),為了使損害最小化而采取某種措施被認為是“可以允許的危險”。

          即便是在日本,針對生命的兩難境況,也并不是說只要有將損害最小化的理念,就可以將其行為正當化,但上述德國的觀點也是值得參考的。可以理解為,對于第一種已經(jīng)將事故發(fā)生的可能性降到最低的情況下仍然發(fā)生了的事故,第二種將損害減少到最小化的程序,被認定為可以允許的危險,其殺人罪與過失駕駛致死罪不成立。從這種理解出發(fā),對于事例2中汽車公司Y2,出于可以允許的危險這一理由,將被判定為不予處罰。

          四 結(jié)語

          本文所述的內(nèi)容中,關(guān)于自動駕駛汽車是否是通過信息網(wǎng)絡(luò)與其他自動駕駛汽車聯(lián)動運行這一問題是開放性的,沒有進行具體的論述。但是今后隨著AI網(wǎng)絡(luò)化的進展,我們也當然可以設(shè)想,第3級以上自動駕駛汽車,會與其他自動駕駛汽車以及AI聯(lián)結(jié),追求更高效率和高性能的操作。但是,這樣高效率高性能的AI網(wǎng)絡(luò)系統(tǒng),當然也依然存在著發(fā)生事故的可能性。本文主要對發(fā)生這種事故時的刑事責任的歸屬問題展開了討論。

          像這種廣泛的網(wǎng)絡(luò)化如果進一步得到發(fā)展,我們可以預想到,自動駕駛汽車發(fā)生死傷事故的情況下,應該被追究刑事責任的主體不僅僅包括駕駛?cè)藛T,或者說并不是駕駛?cè)藛T,而是變成了管理網(wǎng)絡(luò)的“高級人員”。針對這種管理責任,今后也有必要進行更深入的探討。

          編著者簡介

          福田雅樹

          東京大學研究生院學際信息學博士。曾任總務(wù)省信息通信政策研究所調(diào)查研究部部長,現(xiàn)任大阪大學社會技術(shù)共創(chuàng)研究中心教授(副所長),兼任研究生院法學研究科教授。

          林秀彌

          京都大學研究生院法學研究科法學博士?,F(xiàn)任名古屋大學研究生院法學研究科教授、總務(wù)省電波監(jiān)理審議會委員、日本學術(shù)會議合作會員。

          成原慧

          東京大學研究生院學際信息學府博士課程結(jié)業(yè)。現(xiàn)任九州大學法學研究院副教授、理化學研究所革新智能綜合研究中心客座研究員。

          譯者簡介

          宋愛

          日本慶應義塾大學社會學研究科博士,慶應義塾大學媒體與傳播研究所研究員。

          瀏覽 3
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          編輯 分享
          舉報
          評論
          圖片
          表情
          推薦
          永聯(lián)結(jié)
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          編輯 分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  羞羞偷拍视频 | 成人三级片二区 | 狠狠操人人操 | 国产精品久久久久影院 | 日韩一级黄视频 |