自動駕駛汽車在危險情況下可以不計後果地保護自己的主人嗎?

時間 2021-05-06 20:44:29

1樓:麥田裡的守望者

你先看下無人車原理再說吧,3級的取決於廠商的控制系統,取決於廠商設定;4級的取決於同行的先前經驗,百分之99的人遇到這情況都撞牆了,你車也會自動選擇撞。

2樓:lizhenOOO

如果車裡坐的是重要任務,前面是100個普通人;或者車裡是一家人,前面是乙個重要人物呢?在人臉識別的未來,這種情景不敢想象。

3樓:assert

我個人是個極其遵守規則的人,所以我認為在大家都遵守交通規則的前提下是不可能出現ai無法判斷的情況的,ai一定會保證安全距離,路口慢行等等,只有一方不遵守交通規則才會出現所謂的ai來不及搶救的情況,所以這種情況一定要保護遵守規則的一方也就是乘客,而緊急剎車撞向不遵守規則的其他人或車,哪怕乘客只有一人其他人有一萬個人,從倫理上我個人也這麼覺得,做錯事就要承擔錯事的後果,不遵守交通規則的惡果憑什麼讓遵守交通規則的人來承擔。

4樓:

當然不會。

自動駕駛汽車的最高準則是保護製造商。

具體來說,就是這樣幾點:

最大限度地保護乘客的安全。不管是否自動駕駛,不安全的車都沒人願意買

最大限度減少生產商在事故中的法律責任。

這兩點,在大多數情況下是一致的。但也有不一致的情況。就以「高速公路上突然竄出個人」為例,自動駕駛系統的決策邏輯並不難理解。針對以下選擇:

選擇盡力剎車,不改變軌跡,撞死行人——行人違反交通規則,本該承擔責任。廠商無責,乘客也受到了保護。

選擇犧牲車主和乘客——「選擇犧牲」在法律意義上等同於「選擇殺死」。該製造商一定會刑事官司和民事官司吃到死。你說可能嗎?以此帶來的銷量衝擊就更別提了,誰會買一輛選擇殺死你的車?

選擇撞擊無辜第三者——等同於第二條。

再引申開來,如果由自動駕駛AI來解決那個經典的火車扳乍道問題:

一條鐵軌分叉的兩條道。一條道綁著1個人,另一條道綁著10個人。如果不扳道閘,火車就會撞死10個人。扳的話,火車會撞死1個人。那麼應該扳還是不扳?

答案很明確,AI會選擇不扳。因為扳了就等於殺人了。至於撞死的那10個人,對AI而言是不可控因素,冤有頭債有主,去找綁他們的人呀。

自動駕駛車不計後果保護乘客這就等於廠商不計後果保護乘客。而廠商是絕不可能不計後果的,畢竟你只是幾十萬買了輛車而已。編寫行車邏輯讓這車為了保護你自己撞廢沒問題,把過錯方撞飛也沒問題,但為了救你去乾掉三個無關路人那不可能,犯不著啊。

從市場上講,沒人會買一台可能會主動犧牲自己生命的「聖母車」。廠商也絕不可能如此設計。當然,廠商的說法是含糊的,我記得賓士對自動駕駛汽車道德的問題的回答類似「我們的車很負責,一定會保護所有人的安全」(無責任模糊引用)。

自動駕駛汽車的每一起事故必然會被全面地調查分析並公布,如果被暴露出來一輛車在任何情況下做出「犧牲乘客」的決策,這廠第二天就完了。至於消費者,很多人也許會說得好聽,真的下單去買,沒人會當聖母。不信?

有統計表明,汽車的行人防護安全裝置是消費者最忽略的考慮選項。顯然沒人有興趣花錢花在路人的安全上。這還只是錢,涉及到自己的命的時候那更不用說了。

5樓:郭顯辰

應該有一套輔助駕駛系統,提醒司機在緊急情況下操控汽車.如果自動駕駛汽車只為保障車內乘客安全,而撞上了路人,則違反了道德倫理。但是要保障周邊路人安全的話而犧牲車內乘客,誰還會買犧牲自己的車呢?

所以說,自動駕駛技術在這個選擇上是個兩難。說明自動駕駛技術還未達到較高的水平。

6樓:九物

特斯拉是有雷達監測預警的吧,所以周圍視線看不到的可移動物體是可以被預知的吧。這就是用機器來代替人的眼睛來彌補人操作上的缺乏。

7樓:

以下答案僅針對機器學習或神經網路類自動駕駛程式。

經過訓練的自動駕駛程式做出什麼事情,首先取決於開發者想讓它做出什麼事情。

如果開發者沒有想到這種狀況的出現,那就取決於訓練它的資料中的暗示。

說白了,開發者用一堆資料去訓練自動駕駛程式,告訴它,啥情況下你應該幹啥幹啥,之後經過大量訓練的程式根據已接受的訓練和自己的演算法去尋求針對當前情況的最好的處置方案。程式採取的最好的處置方案只是根據自己接受的訓練決定的,它只知道這樣最好,只知道自己要按照最優方案來辦事,它不知道為什麼這種方案最好,為什麼要按照最優方案來辦事。

總體來說,程式的最優方案應當符合開發者的預期,但如果開發者在訓練程式時沒有想到訓練某種極端情況,那麼程式在面對這種極端情況時,就會根據自己受過的訓練尋求乙個最優方案。當然,由於程式沒有接受過針對這種特殊情況的訓練,所以它的「最優方案」,很有可能在我們看來不是最優方案。

實際上,即使開發者用了各種極端情況訓練程式,程式也不太可能找到我們認為的「最優方案」,因為相對於極端情況,正常情況出現的次數要多得多,這些極端情況訓練很容易被正常情況「覆蓋」(我找不到個合適的詞了)掉,而如果使用大量極端情況訓練程式,那麼在正常情況下,程式可能採取乙個我們認為不是最優方案但它認為是最優方案的「最優方案」。

而如果使用「等量」的極端情況和正常情況訓練程式,那麼或許這個程式既不能處理正常情況,也不能處理極端情況。

程式一旦發布,遇到什麼情況會做出什麼反應,就只有天知道了,即便是開發者,恐怕也不敢百分百保證自己對程式將要採取的行為的推斷吧。

順便@汽車奇談高小強,我個人認為,你的回答更面向開發者一些,可以給自動駕駛程式設計者一些提示。

另外,我沒成功地寫出過神經網路,只模模糊糊地寫過樸素貝葉斯,求輕拍。

8樓:carlare carlare

顧客:你家店裡的車優先保護誰?

客服:這個我們是這樣設計的,balabala…顧客:好的我們再看看。

換家店顧客:你家店裡的車優先保護誰?

客服:當然是你。

顧客:這車多少錢?

9樓:徐小明

出了車禍後駕駛員狀告自動駕駛系統的開發商。因為自動駕駛系統通過選擇最優決定以駕駛者輕傷的代價拯救違反交通規則的行人。

開發商翻出了自駕系統的使用說明。在第一頁就詳細定義了32種突發交通情況下AI的選擇方案。該事故屬於第19條的情況。同時駕照補考時已經把該規則納入考試範圍,開發商不應該承擔責任。

駕駛者不滿意,他認為對方違反了交通規則,自己如果不願意就不應該為對方承擔責任。最後花了大價錢請律師打贏了官司。

於是該自駕系統緊急下架。因為股東們認為由AI決定人類的道德行為風險過大。

好了,我不想再編了。(ー_ー)

10樓:科魯茲戰鬥機

這問題不是很簡單嗎?程式設計師給它下達什麼指令,它執行就好。

1,車主及車內乘客的生命絕對優先

2,人的生命優於物的價值

3,盡量避免發生事故

4,遵守交通規則。

11樓:荔枝

自動駕駛是按照交通規則的循線駕駛。

不是乙個人工智慧坐在駕駛座上替俺們駕駛。

本質上是前者,而非後者。

想成後面的人,不太適合自己開車。

自動駕駛的最大前提不是技術層面的,而是假設法理能讓任何一場交通事故的責任方承擔明確的責任。

對面一堵牆搖搖欲墜,乙個理智的人會特意跑過去,在牆下站著麼?

絕對不會。

然而馬路上車來車往,為什麼有的人看都不看就橫穿呢?

因為「我覺得你不會撞我;我覺得你能剎住車」

如果我開著自動駕駛車輛,沒有任何違法行為,正常行駛,突然乙個行人跑出來,在我的引擎蓋前飛起來兩丈高。這時候,假如法律能給乙個公平的判定,而不是交警走過來,「雖然行人全責,但是你也要賠多少多少,因為他怎樣怎樣。」

自動駕駛最大的敵人不是人工智慧,是執法者的尺度。被人撞,大可以哭天喊地要賠償,要肇事者償命。但被一塊綠色電路板撞飛十公尺八公尺,且不說賠償,生而為人的尊嚴何在?

這和站在要倒的牆底下沒什麼區別。

人們敬畏地鐵,敬畏火車,恰恰是知道這些東西人控的比例越來越低,死了白死,人都有天生想讓自己死得其所的本能,讓自己的生命盡可能有價值。

不久的將來,假如馬路上自動駕駛的車輛,超過一定的比例,可能是3%,可能是5%,立馬會影響全社會的駕駛習慣和交通意識。迫使所有人都照章行駛,然後又會進一步驅使人購買帶有自動駕駛功能的汽車,最後所有的車輛上都會安裝自動駕駛,像ABS一樣普遍,而且強制。

12樓:愚者之影

人類不能拿自己都解決不了的道德悖論來要求自動駕駛AI來解決

在很多質疑自動駕駛AI決策的虛擬場景中,換了人一樣是無解的。比如題主出的那三道題,假如不是AI,而就是人類自己,那你說司機應該怎麼做呢?

一旦從極端的個例場景上公升到廣泛適用的決策法則,那麼核心是兩層:

第一層是規則,就是交通法規,以及基於交通法規的衍生規則。現代成熟的交通規則已經很明確的規定了各種行為和各種情況下責任的劃分,無論是人和AI都要嚴格遵守這些規則;但是目前的交通規則並非針對AI設計的,其中也會有不足的地方,那麼在目前的基礎上進行擴充套件和細化,作為自動駕駛的底層策略,這是可行的。

第二層是效率判斷,就是在不違反法規及相應規則的基礎上,評估各種行為可能產生結果的概率和損失,選擇損失最小的行為執行。這點需要快速的對周邊環境進行分析,並計算可能產生的後果,最後進行決策,時間可能只有數秒時間,這是非常考驗自動駕駛AI的能力的。

事實上,以上兩層也是人類自己在理性下的選擇過程:遵守規則、最大程度避免傷害,而當傷害無法避免的時候,優先保護遵守規則的人並且降低總體傷害。這同時也是人類社會規則下的最優解,不過人類可能會更多的進行感性的道德判斷,同時行為也受限於司機的水平,情況更為複雜,而AI則可以保持絕對的理性。

比如在威爾.史密斯主演的電影《我,機械人》裡就有這樣的情節,威爾.史密斯飾演的主角不相信機械人AI,原因是在一場車禍中,過路的機械人選擇救生存概率更高的主角,而「犧牲」了生存概率低的小女孩,因此他認為機械人沒有「心」。

而這個行為如果拋開道德選擇,那麼拯救生存概率更高的人也是人類自己的理性選擇,同類問題可以參考這個回答

為什麼很多災難片裡說「老人孩子先走」? - 孟德爾的回答 - 知乎

但是如果災難已經擴充套件到整個社會,不可能全體得救,那就要優先保證集體生存概率,強強聯合,拋棄弱者。

.......

還有一種情況就是遇難團體徹底斷絕外援,也可視同第二種。緊急避險法說的就是這個意思。

同樣是好萊塢災難片,《奪命深淵》裡就是強者帶走所有裝備,留下弱者等死。因為在當時的情況下,理論上所有人都會死,全體得救已經不可能,只能選出生存希望最大的人去試試運氣。

同理,如果讓AI來進行自動駕駛的判斷,比如像高速公路上突然竄出個小孩這種困局,一樣也無法做出完滿的道德選擇。

飛機在緊急情況下,把控制權交給自動駕駛是不是乙個更好的選擇?

小司機 空客金科玉律之一,任何時候合理使用不同自動化程度裝置。自動化裝置是好的,在可以使用的包線內,為嘛不用,這都已經9102年了,飛行員不是一桿兩舵開飛機了,更多的是決策,管理。飛行技術很重要,但是啥情況都想著人工操作,安全裕度將會大大降低 緊急情況下,飛機電腦也可能損壞,很多故障本身就是計算機出...

汽車(尤其是轎車)駕駛員在事先不知情的情況下,能夠根據駕駛體驗判斷車是前置後驅型或者前置前驅型嗎?如果能,原因是什麼?

想太多了 正面剛馬路牙子立馬知道是前驅還是後驅 前驅上去太容易了 後驅簡直感覺在虐車,當然油門踩到底當我沒說,不過應該還是會有區別。 Yang Wang 地板油。前驅感覺有一定的類似turbo lag 的感覺,聽見發動機叫但是沒推背感。過0.5秒到1秒推背感 後驅基本上一氣合成的感覺 個人感覺具體原...

在不攜帶空空飛彈的情況下,阿帕奇可以打過零式戰鬥機嗎?

胖虎xd 利用地形和長弓雷達,還有先進的火控,阿帕奇能在晚上把零式打成傻子。零式的感知,就是眼睛,大晚上你看個p。阿帕奇有先進的長弓雷達,這單方面抓瞎。沒有空空飛彈,帶自鎖的發射曳光穿甲彈的機炮隨便來幾發脆皮零式就沒了 銀河外環 任何能相互比較的事件必然存在可以相互比較的性質,這個性質是二者事件性質...