數萬年來,人 + 工具,一直是雙刃劍般的組合。它們既可進行協同創造,也可實現協同破壞。兩個結果,均取決于“人”的動機與“人”的操作規范。
人工智能時代,在人機協同過程中,我們依舊對“人”的影響頗為有限,但或許可以控制“工具”。
車,便是被控制的工具之一。未來的乘用車,大規模地嵌入自動駕駛,尤其是輔助駕駛系統,是必然的趨勢。地平線 CEO 早前曾預言,對于未來乘用智能汽車而言,自動駕駛是通用必選項,但它并不會帶來差異化價值。
“也就是說,用戶會因為缺乏自動駕駛功能而不買某款車型,而不會因為自動駕駛功能而買這款車型。”
這既是個人所需,也是公共所需。那么自動駕駛,在遇到人為犯罪的駕駛場景時,能否在緊急情況下實現規避和降低損害?
專家告訴我們,從工程實現上,欲避免這類事件,或最大化減輕后果,分兩種途徑:
一種是實現汽車完全自動駕駛化(L4/L5),相當于把開車這件事,完全交給了無人駕駛系統,甚至沒有方向盤。從源頭上避免駕駛員主觀惡意操作的發生,但要達到這一條件,相對較為遙遠。
一種是在輔助駕駛(L3 以下)的前提下,在系統內寫入極端情況的規則,一旦觸發極端規則,系統便擁有最高操作權限,及時“違背”人類駕駛員的不當行為,通過汽車已有功能,阻止加速,或進行自動緊急剎車等操作。
系統在違背駕駛員意愿下接管汽車,是好事嗎?
有人指出,如果有駕駛者超速和闖紅燈(會避開行人和車輛),是因為家人需要去醫院急救,這個時候機器如果在人工駕駛期間,強行介入去控制車輛,影響到救急,是否有悖倫理?
確實,類似的自動駕駛倫理問題,一直廣泛存在。
人類駕駛員作出在機器看來可能不當的決策,有時候往往是基于不得已的特殊情況下,瞬間發生的本能反應,以及基于過往的經驗和認知做出判斷。
但與此同時,人類駕駛員也將為其決策,承擔社會和法律責任。
而機器在緊急情況下的駕駛決策,均需要工程師們事先給定機器一個判斷邏輯和決策規則,讓其遵循。
但規則能全部制定正確嗎?
答案是否定的。
MIT 曾發表了一篇論文,整理了 2016 年一個叫做“道德機器”的在線測試的數據。
“道德機器”對 9 個不同的影響因素進行了測試,其中包括了:
車禍發生時撞男性,還是女性?
撞多數人,還是少數人?
年輕人,還是老年人?
守交通規則的行人,還是亂穿馬路的人?
社會地位高的人,還是社會地位低的人?
……
當一個個扎心的問題擺在自動駕駛工作人員面前時,所有人陷入了沉默。
業內專家告訴我們,上述情況屬于開放性的道德問題,人類自己都沒有標準答案,因此也無法把這些問題的最終決策,寫入系統內。
倫理也分類別
但有些極端情況,是可定義、可規則化,有明確答案的。
以近期的大連事件為例,劉某駕車在等候綠燈指示后,突然在 7 秒鐘內將所駕車輛車速從 0 時速加速至 108 公里 / 小時(該路段限速 60 公里 / 小時),并沖闖紅燈,以駕車沖撞路人的極端方式實施犯罪,造成 5 死 5 傷。
紅燈期間、猛加速、沖向行人。
此行為基本滿足了定性的全部條件,因此無論駕駛員遇到了何種情況,都是可以通過機器強行介入控制的。
比如當車體上的攝像頭或激光雷達檢測到紅燈和行人,以及距離時,可及時限制駕駛員的突然加速行為。
目前常見的輔助駕駛功能,主要為自適應巡航、前碰撞預警、自動緊急剎車、車道保持輔助、換道輔助等。
配備了自動剎車功能的汽車,當駕駛員在遇到危險沒有做出有效反應的情況下,系統可以自動緊急剎車。
但它并不能在特定情況下,擁有最高控制權限,完全強制接管車輛。
也就是說,若人類駕駛員即便在危險場景下,依舊執意要加速行駛,以及其他惡意操作,哪怕擁有自動緊急剎車功能,系統也毫無辦法。
因此,技術人員需為輔助駕駛功能,賦予部分極端場景中,高于駕駛員的最高駕駛控制權限。
目前已有部分廠商也正在這樣做。
當今常見的主動剎車系統
目前市場上已有的 BAS 與自動剎車系統,利用攝像頭或雷達檢測前方車輛,結合一定的行駛速度,分析出可能發生的碰撞時(如下圖 d3 的距離),系統便警示駕駛員。
當進入 d2 距離時,自動準備足夠的制動力,只要駕駛員踩下剎車,就會立刻發揮最大的制動效能。但前提是需要駕駛員踩下剎車。
當距離縮小到 d1 時,如果駕駛員并未踩剎車,自動緊急剎車系統則立即進行主動剎車。
即便如此,它只是輔助,而不是取代。
人們通常會犯一個錯誤,把“輔助”當做“取代”,因此形成惰性,放松警惕,以為機器能包辦一切,最終釀成意外事故。
同樣的問題,也存在于醫療 AI 領域。
AI 在影像科中扮演的角色,是輔助醫生讀片。如果醫生抱有 AI 這個不成熟的助手可以承辦一切的心態,從而降低自身的閱片標準,同樣會帶來醫療事故。
因此,要么全盤交給精度達到最高等級的機器;要么人必須與尚未成熟的機器進行強協同,拋棄依賴。
目前的 AI,顯然都處于后者階段。
自動駕駛,是一個集技術與倫理于一體的產品,更是一個富有生命力的組織形態。
技術無法凌駕于倫理之上,但可以一定程度上阻止惡意破壞倫理的人。
在倫理之內,把工具變得可控和智能,是所有科技從業者的社會使命。