自動駕駛:新算法公平分配風(fēng)險
在允許自動駕駛車輛大規(guī)模上路之前,技術(shù)實現(xiàn)并不是唯一需要克服的障礙。道德問題在相應(yīng)算法的開發(fā)中起著重要作用:軟件必須能夠處理不可預(yù)見的情況,并在即將發(fā)生的事故時做出必要的決定。TUM 的研究人員現(xiàn)在已經(jīng)開發(fā)了第一個道德算法來公平分配風(fēng)險水平,而不是根據(jù)非此即彼的原則進(jìn)行作。
本文引用地址:http://2s4d.com/article/202504/469218.htm測試了大約 2,000 個涉及危急情況的場景,分布在歐洲、美國和中國等各種類型的街道和地區(qū)。發(fā)表在《自然機器智能》雜志上的研究工作是 TUM 汽車技術(shù)教席和 TUM 人工智能倫理研究所 (IEAI) 商業(yè)道德教席合作的共同成果。
TUM 汽車技術(shù)教席的科學(xué)家 Maximilian Geisslinger 解釋了這種方法:“到目前為止,自動駕駛汽車在遇到道德決定時總是面臨非此即彼的選擇。但街道交通不一定能分為明確的、非黑即白的情況;更重要的是,還必須考慮介于兩者之間的無數(shù)灰色陰影。我們的算法權(quán)衡各種風(fēng)險,并從數(shù)千種可能的行為中做出合乎道德的選擇——而且在幾分之一秒內(nèi)就完成了。
危急情況下的更多選擇
2020 年,專家小組代表歐盟委員會確定了軟件風(fēng)險評估所依據(jù)的基本道德參數(shù)作為書面建議。該建議包括基本原則,例如優(yōu)先考慮最差的人以及在所有道路使用者之間公平分配風(fēng)險。為了將這些規(guī)則轉(zhuǎn)化為數(shù)學(xué)計算,研究小組根據(jù)它們在街道交通中移動的車輛和人員對它們對他人構(gòu)成的風(fēng)險以及各自承擔(dān)風(fēng)險的意愿進(jìn)行分類。
例如,卡車可能會對其他交通參與者造成嚴(yán)重?fù)p害,而在許多情況下,卡車本身只會受到輕微損壞。自行車的情況正好相反。在下一步中,算法被告知在各種相應(yīng)的街道情況下不要超過最大可接受風(fēng)險。此外,研究小組在計算中添加了變量,這些變量說明了交通參與者的責(zé)任,例如遵守交通規(guī)則的責(zé)任。
以前的方法只用少量可能的機動來處理街道上的危急情況;在不清楚的情況下,車輛只是停了下來?,F(xiàn)在集成到研究人員代碼中的風(fēng)險評估帶來了更多可能的自由度,同時降低了所有人的風(fēng)險。一個例子將說明該方法:一輛自動駕駛汽車想要超車一輛自行車,而一輛卡車正在迎面駛來。現(xiàn)在,有關(guān)周圍環(huán)境和各個參與者的所有現(xiàn)有數(shù)據(jù)都已得到利用。
是否可以在不在迎面而來的車道上行駛,同時與自行車保持安全距離的情況下超車?每輛車都面臨什么風(fēng)險,這些車輛對自動駕駛汽車本身構(gòu)成什么風(fēng)險?在不清楚的情況下,配備新軟件的自動駕駛汽車總是會等待,直到所有參與者的風(fēng)險都可以接受。避免了激進(jìn)的機動,同時自動駕駛汽車不會簡單地凍結(jié)并突然卡住剎車。Yes 和 No 無關(guān)緊要,取而代之的是包含大量選項的評估。
“僅僅考慮傳統(tǒng)倫理理論導(dǎo)致了一條死胡同”
“到目前為止,人們經(jīng)??紤]使用傳統(tǒng)的倫理理論來推導(dǎo)出自動駕駛汽車做出的道德上允許的決定。這最終導(dǎo)致了一條死胡同,因為在許多交通情況下,除了違反一項道德原則之外別無選擇,“TUM 商業(yè)道德主席科學(xué)家 Franziska Poszler 說。“相比之下,我們的框架將風(fēng)險道德置于中心。這使我們能夠考慮概率,做出更具差異化的評估。
研究人員強調(diào),即使是基于風(fēng)險道德的算法——盡管它們可以在每一種可能的交通情況下根據(jù)基本道德原則做出決策——但它們?nèi)匀粺o法保證街道交通無事故。將來,還需要考慮進(jìn)一步的差異化,例如道德決策中的文化差異。
軟件現(xiàn)在將在街道交通中進(jìn)行測試
到目前為止,TUM 開發(fā)的算法已在仿真中得到驗證。未來,該軟件將使用研究車輛 EDGAR 在街道上進(jìn)行測試。包含研究活動結(jié)果的代碼以開源軟件的形式提供。因此,TUM 正在為開發(fā)可行且安全的自動駕駛汽車做出貢獻(xiàn)。
評論