日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

自动驾驶汽车事故的责任追究

發(fā)布時間:2023/11/28 生活经验 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 自动驾驶汽车事故的责任追究 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

自動駕駛汽車事故的責(zé)任追究

Unraveling culpability in autonomous vehicle accidents

事故會發(fā)生,但達(dá)成一致的標(biāo)準(zhǔn)對建立監(jiān)管機(jī)構(gòu)和消費者對robocars的信心有很大幫助。
Robocars不會是無事故的。

對于那些懷有培育自主汽車(AV)未來希望的監(jiān)管機(jī)構(gòu)來說,這是一個很可能困擾的政治現(xiàn)實。對公眾來說,這是一個心理上站不住腳的前景,尤其是如果一輛robocar碰巧壓扁了心愛的人。

不過,從技術(shù)的角度來看,這種必然性是想要開發(fā)更安全AVs的工程師的出發(fā)點。

英特爾高級首席工程師、MobileEye負(fù)責(zé)自主汽車標(biāo)準(zhǔn)的副總裁杰克·韋斯特(Jack Weast)說:“世界上最安全的人類駕駛員是從不開車的人。”。在一段視頻教程中說了這句俏皮話,解釋了公司的責(zé)任敏感安全(RSS)的含義。

“韋斯特是對的,”戰(zhàn)略分析公司全球汽車業(yè)務(wù)副總裁伊恩·里奇(Ian Riches)對《經(jīng)濟(jì)時報》表示。“唯一真正安全的車輛是靜止的。”

所以,如果希望看到商用的AV能真正在公共道路上運行,那會發(fā)生什么呢?

在AV生態(tài)系統(tǒng)能夠回答這個問題之前,必須就另一個問題開啟一個久違的對話:當(dāng)一個機(jī)器人殺死一個人時,誰該受到責(zé)備?2020年將是這個行業(yè)最終與惡魔對抗的一年。

一方面,AV技術(shù)供應(yīng)商喜歡引用世界衛(wèi)生組織(WHO)報告的“每年135萬道路交通死亡”這樣的數(shù)字,當(dāng)宣傳的高度自動化技術(shù)是道路安全的最終解決方案時。急于描繪出零碰撞未來的美好圖景,用這些數(shù)據(jù)來解釋社會為什么需要AV。

去年,全世界道路交通事故死亡人數(shù)超過130萬。

另一方面,技術(shù)界的大多數(shù)人努力避免回答當(dāng)robocars失敗時該怪誰的問題。被超出自己回答或控制能力范圍的法律問題所嚇倒,寧愿把責(zé)任推給監(jiān)管者和律師。

在此背景下,英特爾公司Mobileye脫穎而出。正如Weast告訴EE時報的那樣,“Intel/Mobileye并不害怕問一個棘手的問題。”在開發(fā)RSS的過程中,Intel/Mobileye的工程師花了大量時間思考安全到底有多安全——“這是每個人最不舒服的話題”,Weast在最近接受EE Times采訪時這樣描述。

“都想說,自動駕駛汽車將減輕交通事故,但對于非零概率的AV事故,聲明有局限性。”。“事實是會發(fā)生意外。當(dāng)然,目標(biāo)是盡可能降低事故發(fā)生的幾率。但不能從零事故的立場開始AV開發(fā),也不能認(rèn)為一次事故就太多了。”

A predetermined set of rules

預(yù)先確定的一套規(guī)則

Intel/MobileEye通過開發(fā)RSS來引領(lǐng)AV行業(yè),“這是一套預(yù)先確定的規(guī)則,當(dāng)AV與人類駕駛的汽車發(fā)生碰撞時,可以快速、決定性地評估和確定責(zé)任。”

當(dāng)發(fā)生碰撞時,MobileEye寫道,“將會進(jìn)行調(diào)查,這可能需要幾個月的時間。即使是人為駕駛的車輛造成的,這一點也可能無法立即明確。公眾的關(guān)注度會很高,因為有一個AV參與其中。”

據(jù)MobileEye稱,鑒于此類事件的不可避免性,MobileEye尋求的解決方案是“根據(jù)數(shù)學(xué)模型,提前為故障設(shè)定明確的規(guī)則”。“如果規(guī)則是預(yù)先確定的,那么調(diào)查可以很短時間,以事實為依據(jù),責(zé)任就可以最終確定。

“當(dāng)此類事件不可避免地發(fā)生時,這將增強(qiáng)公眾對AVs的信心,并澄清消費者、汽車和保險業(yè)的責(zé)任風(fēng)險。”

大多數(shù)科學(xué)家都認(rèn)為,零碰撞的目標(biāo)是不可能的,即使是AVs,既不喝酒也不開車,也不開車發(fā)短信。

“當(dāng)然,更希望零碰撞,但在一個不可預(yù)測的現(xiàn)實世界中,這是不可能的,”Phil Koopman,Edge Case Research的首席技術(shù)官,卡內(nèi)基梅隆大學(xué)教授告訴EE Times。“重要的是要避免可預(yù)防的災(zāi)難。設(shè)定一個“明顯優(yōu)于人類駕駛員”的預(yù)期是合理的。完美的目標(biāo)就是要求太多。”

即便如此,把責(zé)任歸咎于事故的想法讓每個人都感到不舒服。

林利集團(tuán)(Linley Group)高級分析師邁克·德姆勒(Mike Demler)說:“在RSS原始論文中看到的最大問題是強(qiáng)調(diào)指責(zé)。“包括定義AV動作和動作的數(shù)學(xué)模型,認(rèn)為這是優(yōu)勢。但不足之處在于,指出,‘從規(guī)劃的角度來看,該車型保證不會發(fā)生由自動駕駛車輛引起的事故。’”

設(shè)身處地為消費者著想。如果是一名乘AV的乘客,或者是一輛可能與之發(fā)生事故的車輛上的乘客,最不關(guān)心的就是誰或什么人有過錯。這要由律師和保險公司來決定。只是不想被殺或受傷。

不過,如果設(shè)計自動駕駛汽車,就不能無視罪責(zé)。

德姆勒引用了Nvidia在回復(fù)RSS時發(fā)表的《安全部隊》實地論文。本文幾乎完全集中在數(shù)學(xué)模型上。“更難正式確定的問題是什么構(gòu)成‘安全’駕駛。”。

例如,RSS在AV周圍創(chuàng)建了Weast所稱的“安全泡沫”。戴姆勒說:“一輛車離前面的車應(yīng)該有多遠(yuǎn),這似乎相當(dāng)明顯。”。“但是,對所有可能的駕駛場景進(jìn)行建模并描述‘安全’的行動過程是不可能的。”

德姆勒指出,“盡管人工智能越來越強(qiáng)大,計算機(jī)仍然無法推理。”因此,人工智能驅(qū)動的AV“只能遵循規(guī)則。”

但是人類的司機(jī)明白規(guī)則是被打破的。戴姆勒說:“在某些情況下,避免事故可能需要一種可能被視為不安全的規(guī)避動作,比如在與其車輛‘不安全’的距離切入另一條車道的障礙物周圍快速加速。”。

所示公式計算后車和前車之間的安全縱向距離。

戴姆勒想知道,是否真的有能力預(yù)測所有潛在的情況,并教robocars一個安全的行動方案,為每一個案件。這可能是個反問句。

總結(jié)

以上是生活随笔為你收集整理的自动驾驶汽车事故的责任追究的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。