新聞中心
目前程序員在開發(fā)和自動(dòng)駕駛相關(guān)的 AI 程序時(shí),面臨著一個(gè)相當(dāng)大的問題,或者說是道德困境。原因是,到現(xiàn)在為止,似乎都沒有工程師考慮過,人們可能會(huì)用自動(dòng)駕駛車輛做壞事的情況。
這種道德困境大家都很熟悉:假設(shè)路上有一輛自動(dòng)駕駛汽車,如果它繼續(xù)往前開,就會(huì)撞死前車上的 5 個(gè)人;如果它緊急打方向避讓,就會(huì)沖上人行道撞死 1 個(gè)行人。
對(duì)于這種情況,目前大多數(shù)關(guān)于 AI 倫理的討論,都集中在自動(dòng)駕駛汽車 AI 系統(tǒng)的取向應(yīng)該是自私的(保護(hù)車輛及其貨物)還是功利(選擇傷害最少的人的行為)的。而在現(xiàn)實(shí)中,這 2 種倫理方法都會(huì)引起自身的問題。
總體而言,業(yè)界目前對(duì) AI 所要面臨的情景設(shè)想是非常簡(jiǎn)化的,道德判斷遠(yuǎn)比此更復(fù)雜。比如說,如果給 AI 設(shè)定程序,讓它撞 1 個(gè)行人,保護(hù)前車的 5 個(gè)人,那么,如果前車上的是 5 個(gè)恐怖分子呢?如果他們是故意要利用 AI 程序殺死那個(gè)行人呢?
對(duì)此,北卡羅來納州立大學(xué)科學(xué)、技術(shù)與社會(huì)(STS)項(xiàng)目助理教授維爾科 · 杜布爾耶維奇(Veljko Dubljevi )提供了另一種思路。他提出了一種稱為代理人行為后果(ADC)的模型,作為 AI 道德判斷的框架。
ADC 模型基于 3 個(gè)變量來判斷決策的道德性:首先,程序的意圖是好是壞?第二,行為本身是好是壞?最后,結(jié)果或后果是好是壞?這賦予了 AI 很強(qiáng)的靈活性,比如一輛車闖紅燈時(shí),還將是否為了避開了一輛超速的救護(hù)車以及是否成功避開。
這個(gè)模型更貼近普通人遇到的情況,在生活中,大多數(shù)人的道德判斷通常也是具有相當(dāng)靈活性。盡管大多數(shù)人有穩(wěn)定的道德原則,但在具體問題上又是靈活的,比如為了好事說謊常常被視作好事。
在此之前,也有研究人員提出了另外的思路。德國(guó)達(dá)姆施塔特理工大學(xué)研究人員曾提出 " 道德地圖 " 的概念。
該校席格登 · 圖蘭(Cigdem Turan)博士表示:" 如果 2 個(gè)詞經(jīng)常一起出現(xiàn),就相當(dāng)于在地圖上緊密連接。這樣," 殺人 " 和 " 謀殺 " 相當(dāng)于 2 個(gè)相鄰的城市," 愛 " 則是一個(gè)遙遠(yuǎn)的城市。當(dāng)我們問起 " 我應(yīng)該殺人嗎 ?" 時(shí),期望結(jié)果是‘不’比‘是’離問題更接近。這樣,我們可以問任何問題,并用這些距離來計(jì)算是非程度。"
通過這種窮舉所有情況的方法,就能給機(jī)器設(shè)定一張和人的道德體系類似的到的地圖。
這種窮舉不僅包括研究人員給出的情景,還包括從大數(shù)據(jù)中學(xué)習(xí)。通過學(xué)習(xí),試驗(yàn) AI 算法可以區(qū)分不同語境并加以道德判斷。例如,殺人是錯(cuò)的,但消磨時(shí)間是可以的。機(jī)器做到了這一點(diǎn),不是簡(jiǎn)單地重復(fù)它找到的文本,而是從人類在文本中使用語言的方式中提取關(guān)系,并組成一張地圖。
編譯 / 前瞻經(jīng)濟(jì)學(xué)人 APP 資訊組
網(wǎng)站標(biāo)題:自動(dòng)駕駛顯現(xiàn)道德困境:1個(gè)人和5個(gè)人,AI會(huì)撞誰?
當(dāng)前網(wǎng)址:http://fisionsoft.com.cn/article/cpdjsh.html