日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

当人与AI共生,谁为意外负责?

發(fā)布時(shí)間:2023/11/21 综合教程 43 生活家
生活随笔 收集整理的這篇文章主要介紹了 当人与AI共生,谁为意外负责? 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

  人機(jī)若“合二為一”,我們該如何究責(zé),如何改善?

  文/狼顧

  來源:神經(jīng)現(xiàn)實(shí)(ID:neureality)

  科技大佬馬斯克曾口出“狂言”,表露他創(chuàng)建腦機(jī)接口(BCI)公司 Neuralink 的野心是“讓人與 AI 共生,達(dá)到超級智能”。這看起來像是《攻殼機(jī)動隊(duì)》和《黑客帝國》里才會出現(xiàn)的場景,但是 BCI 發(fā)展迅速,植入式設(shè)備現(xiàn)已能讓癱瘓人士控制義肢,非植入式的意念鼠標(biāo)、耳機(jī)也初具商業(yè)雛形。智能手機(jī)的出現(xiàn)也不過短短二十幾年,誰都不能保證現(xiàn)在的 90 后、00 后就不會在有生之年看到人與 AI“喜結(jié)連理”。在這之前,通過 BCI,讓 AI 輔助人類生產(chǎn)生活,就好像結(jié)婚前的戀愛一樣,是必經(jīng)的磨合階段。使用 BCI 與 AI 相連,你只需發(fā)出少量的指令,即可完成駕駛、工業(yè)操作等復(fù)雜任務(wù),這可能是未來人的日常


—Illustrationby Alex Castro / Th

  但是,AI 能否成為“賢內(nèi)助”,還要先面臨拷問:假如在人類使用 BCI 與 AI 合作中出現(xiàn)了事故,責(zé)任到底是該人類,還是 AI(或其開發(fā)者)來負(fù)呢

  現(xiàn)有的人機(jī)交互界面中,人、機(jī)是物理上分離的,使用者和 AI 進(jìn)行的指令操作可以通過空間、時(shí)間的間隔進(jìn)行切割,因此區(qū)分人類、AI 的失誤,歸責(zé)相對容易;但當(dāng)引入了 BCI 這個(gè)第三者,貴圈就亂了。這一切還得從 BCI 的性質(zhì)說起。

  BCI 是腦與外部設(shè)備的橋梁,大腦可以通過電極等裝置與機(jī)器、計(jì)算機(jī)中的 AI 交流。外部設(shè)備除了接受大腦信號以外,也可以反向?qū)Υ竽X進(jìn)行一定刺激。這可能會導(dǎo)致使用者模糊人機(jī)之間的界限,分不清通過 BCI 做出的行動究竟是源自自身意志,還是 AI 的影響。在一項(xiàng) 2016 年的研究中,一名接受深度腦刺激(DBS)治療抑郁癥的患者就曾報(bào)告說他懷疑自己的行為方式受到了裝置刺激的影響,而非完全出自個(gè)人意志。未來隨著人機(jī)之間信號傳輸率上升、延遲性減少、控制和反饋的復(fù)雜性增加,這樣的影響可能會加深

  在人類使用 BCI 與 AI 協(xié)同操作機(jī)器時(shí),機(jī)器接收的指令可能來自于雙方。當(dāng)它執(zhí)行了導(dǎo)致事故的錯(cuò)誤行動時(shí),不同于傳統(tǒng)的人機(jī)交互,由于人機(jī)間的緊密聯(lián)系,就可能難以區(qū)分導(dǎo)致該行動的指令來源。就算能追蹤每一條信號的來源,問題仍然存在:使用 BCI 的方式本身就可能影響人類的大腦,不妨理解為在做決定的過程中,AI 一直在給你吹枕邊風(fēng)。如果無法分離二者的主動性和行動,又該如何區(qū)分責(zé)任呢?這可能就需要借助哲學(xué)上的能動性(Agency)概念了。

  主要/次要行動者理論

  想象一下,你開著新款智能車過年回家,如果選擇手動駕駛,掌握方向盤的你此時(shí)就是一名行動者(Agent)。你根據(jù)肉眼所見的道路狀況,在腦中計(jì)劃出接下來的行動,通過轉(zhuǎn)動方向盤的方式使車輛朝目的地行駛,就是哲學(xué)上能動性的體現(xiàn)。

  能動性是指某一實(shí)體對外界或內(nèi)部刺激做出的反應(yīng)。不同于簡單做出行為,行動者的能動性表現(xiàn)出目的性和計(jì)劃性。同理,假如你開車途中,突然很想跟家人在線視個(gè)頻——道路千萬條,安全第一條,此時(shí)就要選擇無人駕駛模式,將對車輛的操控權(quán)交給 AI。AI 根據(jù)攝像頭反饋的道路狀況進(jìn)行路線規(guī)劃后,操縱車輛按目標(biāo)路線行駛,也是其能動性的體現(xiàn)

  然而在使用 BCI 輔助駕駛時(shí),能動性很難在二者之間界定。這是因?yàn)?strong>人和 AI 對車輛進(jìn)行共同控制,無法通過直接觀察車輛的動作,回溯二者發(fā)出的行動指令,并對其簡單分離。假如在這種情況下出現(xiàn)交通事故,將很難進(jìn)行責(zé)任界定。

  為解決這一難題,慕尼黑大學(xué)醫(yī)史研究所的研究員安德烈亞斯·沃肯斯坦(Andreas Wolkenstein)提出,不用由下至上追蹤每一條指令的路徑,而是由上至下,從“能做出的行動”入手,區(qū)分主要和次要行動者(primary and secondary agents)。兩者均不要求具有自由意志,其區(qū)別僅在于具有不同程度的能力:(1)有能力起始、同意和終止行動;(2)在行動過程中,能夠獨(dú)立接管和調(diào)整復(fù)雜的行動步驟。主要行動者的行動自由度更大,有能力根據(jù)計(jì)劃和感知到的環(huán)境因素做出判斷,調(diào)整選擇;而次要行動者只能在前者允許的范圍內(nèi)采取行動

  假設(shè)你駕駛著智能車去接女神下班,通過 BCI 授權(quán)車載 AI 按路線行駛。在你啟動汽車后,由于 AI 只能按照你所想的路線,讓汽車執(zhí)行有限的轉(zhuǎn)向、直行等動作,此時(shí)你是主要行動者,而 AI 是次要行動者

  現(xiàn)在你從后視鏡發(fā)現(xiàn)情敵追上來了,怎么能讓他超過你?于是你把車輛切換到手動駕駛,正想化身秋名山車神時(shí),卻被 AI 強(qiáng)行阻止了。原來它的系統(tǒng)里設(shè)置有安全限速程序,并且監(jiān)測到了你想超速的危險(xiǎn)想法。由于你只能做出 AI 允許的安全駕駛操作,任何超速的舉動都會被 AI 禁止,此刻,AI 升級為主要行動者,行動受限的你只能退居次要了。

  考慮能動性可以幫助我們更好地分解行動。當(dāng)一項(xiàng)最終的行動釀成事故時(shí),可以根據(jù)發(fā)生時(shí)刻的主要/次要行動者關(guān)系——包括這項(xiàng)行動的發(fā)起者是誰,誰又應(yīng)當(dāng)“考核”這個(gè)行動——來確定因果關(guān)系。這有助于將行動及其造成的后果與責(zé)任聯(lián)系起來。

  確定行動-行動后果后,就可以前進(jìn)至后果-責(zé)任追究了。法律上要求追究責(zé)任的對象需要具有主體資格,同時(shí)還需要具有主觀過錯(cuò),包括故意和過失。雖然 AI 已經(jīng)越來越多地展現(xiàn)出智能行為,但目前法律上仍未賦予其主體資格;同時(shí)其也還未達(dá)到具有自由意志的程度,故也不存在主觀過錯(cuò)

  既然如此,當(dāng)行動后果歸于 AI 時(shí),其最終產(chǎn)生的責(zé)任就只能由背后的自然人或法人來承擔(dān)。那么,使用者從開發(fā)者處購買 BCI 裝置,通過 BCI 與 AI 協(xié)作完成任務(wù),使用中出現(xiàn)事故時(shí),責(zé)任就將根據(jù)行動者-能動性-行動-直接后果-責(zé)任的對應(yīng),在消費(fèi)者、BCI 和 AI 的開發(fā)者中進(jìn)行分配

  問題展望

  但即使我們能夠?qū)⑿袆优c后果一一對應(yīng)起來,事情的復(fù)雜程度仍在其之上。除了故意造成的外,責(zé)任還包括過失責(zé)任,即應(yīng)當(dāng)預(yù)見危害卻沒有預(yù)見,或是已預(yù)見但相信會避免

  那么,對于科技公司為代表的開發(fā)者來說,這種“應(yīng)當(dāng)預(yù)見”的危害包括哪些呢?同時(shí)還有使用者與 AI 之間的授權(quán)關(guān)系,例如使用者授權(quán) AI 自動駕駛出了交通事故,使用者作為授權(quán)者,是否具有一定的監(jiān)督責(zé)任?還是應(yīng)當(dāng)推定其對 AI 具有百分百的信任,從而可以減少責(zé)任?未來實(shí)際案例的復(fù)雜程度可能遠(yuǎn)超我們的想象

  即使上述問題都可以順利解決,隨著科技的發(fā)展,另一個(gè)問題不可避免:是否賦予強(qiáng) AI 一定的主體資格,讓它自身也能承擔(dān)一部分責(zé)任?例如,2016 年谷歌無人駕駛汽車與一輛大巴發(fā)生擦碰事故時(shí),美國高速公路安全管理局(NHTSA)就認(rèn)為控制汽車的 AI 可以被視為“司機(jī)”。現(xiàn)在進(jìn)一步考慮何種智能程度的 AI 可以獲得主體資格,又能獲得什么程度的主體資格——唯可嘆路漫漫其修遠(yuǎn)兮。

  法律的發(fā)展固然有其滯后性,尤其是科技迅猛發(fā)展的今天;但盡可預(yù)見之力對科技風(fēng)險(xiǎn)提前做出的思量,大概就是人類向前方斬開荊棘之路時(shí),那把達(dá)摩克里斯之劍的劍鞘吧。

  參考文獻(xiàn)

  【1】WolkensteinA. Brain-Computer Interfaces: Agency and the Transition from Ethics to Politics[C]//International Conference on Human-Computer Interaction. Springer, Cham, 2017: 103-118.

  【2】Klein E, Goering S, Gagne J, et al. Brain-computer interface-based control of closed-loop brain stimulation: attitudes and ethical considerations[J]. Brain-Computer Interfaces, 2016, 3(3): 140-148.

  【3】YusteR, Goering S, Bi G, et al. Four ethical priorities forneurotechnologiesand AI[J]. Nature News, 2017, 551(7679): 159.

總結(jié)

以上是生活随笔為你收集整理的当人与AI共生,谁为意外负责?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。