1. 程式人生 > >自動駕駛汽車?法律:倫理

自動駕駛汽車?法律:倫理

文章原標題《Lows and Ethics for Autonomous Cars》,作者karla Lant,譯者:海棠,審閱:東東邪

文章為簡譯,更為詳細的內容,請檢視原文

自動駕駛汽車中的法律與倫理

與機器人共享道

作者介紹karla Lant

一位有經驗的自由撰稿人和編輯,兼職教授。具有先進的教育和寫作經驗。作為一名作家,其研究領域包括:技術、科學、技術寫作、教育、商業、法律等。

自動駕駛汽車很可能會比人操作汽車更加安全,但也不是完美的。在很長的一段時間裡,自動駕駛汽車仍然需要與人自己駕駛汽車共享道路,這意味著大量關於自動駕駛汽車的法律和倫理應該被髮展。

目前的法律狀態

汽車的駕駛員和安全領域中以人類的倫理標準編撰自動駕駛汽車的法律,這意味著以靈活的方式詮釋許多法律法規,以至於我們能夠在每種情形下實現一個公正的結果。

正常人標準

在類似的情況下,如果沒有像一個合理謹慎的人那樣做,那麼我們是疏忽大意的。在決定一些人的行為是否像正常人,法律考慮了很多的因素,包括個人經歷、學識以及其感知能力等。

法律假設我們所有人都能看見、聽見並知道正常人會在相同情形下的行為,並假設都知道一些常識。

合理的機器人

合理的機器人應該需要滿足或者超過對正常人的期望,這即是簡單又是複雜的,因為它包含了技術和倫理成分。

合理的技術

自動駕駛汽車將有儘可能多的感知資訊,以幫助其作出每個決定。在加利福利亞,自動駕駛汽車牌照必須提供它們

30s的感測器資料,這意味著工程師有資料去精確地重建任何碰撞、分析其邏輯處理以及感知的預備方案。最後,自動駕駛汽車的碰撞將會很少發生,但一旦發生碰撞,律師和監管部門將能夠對這些汽車執行難以置信的高安全標準,以至於人類永遠不會與其發生碰撞。

合理的倫理

當考慮到倫理問題時,合理的機器人就陷入問題中,我們認為正常人知道基本的常識,但這對於機器人來說是困難的。另外駕駛與風險同在,決定如何在自動駕駛汽車、騎自行車的人、行人之間分配風險,如何遵從法律、分散風險並最小化傷害,這些都是需要面臨的難題。

自動駕駛系統使用判斷違反法律

存在許多的情形會讓駕駛員的常識不顧法律的規定,比如一個小孩突然跑進你車前的視野中,你將會在雙黃線上轉彎以避免撞到小孩。對於

自動駕駛系統而言,這主要歸功於在安全的前提下決定破壞雙黃線法律。自動駕駛系統不依賴於人的常識,但存在置信度。

倫理和最小化法律責任

谷歌在2014年智慧財產權中取得了針對自動駕駛系統的風險最小化策略的專利權。谷歌想象自動駕駛汽車行駛在三線寬的公路上,左側有一輛小車,右側有輛大卡車。自動駕駛系統將會使其更靠近小車以最優化汽車的安全。但這個涉及到倫理問題,自動駕駛系統不公平地將更多的危險分配到小車上。

生命獨無二的價值

現存的法律系統估計生命是與自動駕駛系統有區別的,比如在非正常死亡負責起訴陪審團能基於逝者的教育水平、工作性質以及其它因素來決定一個人的生命在未來有的價值。而在風險分配和自動駕駛系統中,這種區別潛在會帶來不好的結果。

雙輸的情景

雙輸情景會在碰撞是無法避免的時候發生,在這種情景中,自動駕駛系統應該基於一些目標最小化產生的結果,決定什麼目標就會選擇不同的方式。最小化人的傷害是一個重要目標,但是選擇如何分配或者直接傷害人並按照人的優先順序排列保護是困難的。

經濟上的損失

假設自動駕駛系統能夠精確地區分動物與非動物目標,非動物目標應該如何排序?如果自動駕駛系統必須選擇傷害其中一個,應該首先傷害最小价值的汽車?應該對自動駕駛系統的倫理進行程式設計以避免受到一些人為因素去碰撞其它汽車?

關於針對自動駕駛系統的機器人倫理

沒有單一的倫理指導原則指導自動駕駛系統程式設計。而不是尋找正確的基本指令我們應該學會通過將程式設計倫理看做成一個工程問題來區分各種問題的解決辦法。

倫理作為工程上的挑戰

將倫理作為一個工程問題意味著服從一些嚴格的限制當需要優化幾個方面。選項在道德上不可接受或根據約束幾乎不可能排除。識別利益相關者和共同利益可以闡明剩餘的選項。

理想情況下,基於控制的結果決定是高風險或低風險決定是否硬編碼或將選擇留給消費者。高風險的硬編碼決定最大化安全並維護製造商之間的競爭,並通過允許消費者選擇低風險的決定來尊重消費者並提供更多的選擇。

在設計中嵌入倫理

專業倫理學家應該參與到設計和工程過程中,這種方式在設計決策時有具體作用,可以在做出道德決策之前識別選擇。倫理作為設計過程的一部分,所有可能的權衡可以被視為倫理的積極方法中的一部分。