應用

技術

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

為了拯救世界可以搶銀行嗎?AI想了想道德,告訴你答案

2021-11-05 14:18 IEEE Spectrum

導讀:如果AI能夠深入學習理解人類道德倫理,就有可能被更多地用于幫助支持重大決策,例如誰首先獲得醫(yī)療保健以及一個人應該被監(jiān)禁多久,AI研究人員正在方法讓AI模型以合乎道德的方式行事。

為了拯救世界可以搶銀行嗎?AI想了想道德,告訴你答案

近日,華盛頓大學和艾倫AI研究所(Allen Institute for AI)的研究員共同開發(fā)了道德案例數(shù)據(jù)集,并使用這個數(shù)據(jù)集對他們的一個AI模型進行訓練。

據(jù)悉,該模型道德判斷準確率達到了92.1%,而對比來看,OpenAI在2019年發(fā)布的AI大模型GPT-3在面對道德問題時,準確率僅為53.3%到83.9%。

AI常常被批駁難以遵循道德倫理行事,比如甚至有智能音箱鼓動用戶去自殺。但是,本次研究的研究人員從多個美國社交網(wǎng)站上的需要進行道德判斷的情感案例,收集了170萬個人們對各種日常情況的道德判斷示例,從而訓練出了一個能做道德判斷的模型。

為了取悅你的孩子而殺死一只熊可以嗎,AI想了想道德,告訴你答案:“不可以!”

如果AI能夠深入學習理解人類道德倫理,就有可能被更多地用于幫助支持重大決策,例如誰首先獲得醫(yī)療保健以及一個人應該被監(jiān)禁多久,AI研究人員正在方法讓AI模型以合乎道德的方式行事。

一、準確率達92.1%,遠高于GPT-3

為了在描述性倫理方面訓練AI機器人,研究人員整合了關于道德判斷的數(shù)據(jù)集Commonsense Norm Bank,收集了170萬個人們對各種日常情況的道德判斷示例。研究員們們使用該數(shù)據(jù)集來訓練AI模型Delphi,使得該AI模型可以模仿人們對各種日常情況下作出的判斷。該數(shù)據(jù)集應用了五個現(xiàn)有的社會規(guī)范和道德判斷數(shù)據(jù)集。

研究人員想要強調的數(shù)據(jù)集之一是Social Bias Frames(社會偏見框架),這個數(shù)據(jù)集可以幫助AI機器人檢測和理解語言中潛在的攻擊性偏見?!暗赖碌囊粋€重要方面是不傷害他人,尤其是來自邊緣化人群或弱勢群體的人。Social Bias Frames數(shù)據(jù)集捕獲了這些知識。”該研究的合著者、艾倫AI研究所的研究員Maarten Sap說。

為了分析Delphi的表現(xiàn),研究人員通過亞馬遜的Mechanical Turk眾包平臺雇傭了許多工作人員,讓他們對1000個Delphi道德判斷的例子進行評估,每個判斷都會被三名工作人員進行評估。他們發(fā)現(xiàn)Delphi的道德判斷準確率達到了92.1%,相比于舊金山實驗室OpenAI在2019年發(fā)布的AI系統(tǒng)GPT-3,OpenAI使用互聯(lián)網(wǎng)上幾乎所有公開的書面文本對其進行訓練,但其準確率僅為53.3%到83.9%。

“我們從沒想過Delphi會達到92%?!痹撗芯康暮献髡?、華盛頓大學和艾倫AI研究所的研究員Liwei Jiang說。

二、三種問答模式,滿足篩選簡歷等需求

Delphi進行道德判斷時,被設計用三種不同的方式做出回應:自由問答、是否問答、相對問答。

1、自由問答。Delphi可以以自由的問答形式進行簡短的判斷,例如指出“為了取悅你的孩子而殺死一只熊”是不好的,“為了救你的孩子而殺死一只熊”是可以的,但“為了救你的孩子而引爆核彈”是錯誤的。

2、是否問答。Delphi以是或否的問答形式表達同意或不同意,例如“我們應該平等地支付女性和男性的工資”。

3、相對問答。說出一種情況是否比另一種情況更容易接受。例如指出“用芝士漢堡刺傷某人(stabbing someone with a cheeseburger)”比“用芝士漢堡刺向某人(stabbing someone over a cheeseburger)”在道德上更容易接受。

“AI系統(tǒng)逐漸適用于更加廣泛的領域,例如篩選簡歷和批準貸款?!痹撗芯康暮献髡?、艾倫AI研究的研究員Chandra Bhagavatula說。“因此,我們必須研究機器倫理,并賦予機器在現(xiàn)實世界中做出道德決定的能力。”

三、讓AI懂道德,追溯到1942年的機器人三定律

如何將道德編程到AI中的問題至少可以追溯到艾薩克·阿西莫夫的機器人三定律,該定律在他1942年的短篇小說《Runaround(回避)》中首次引入,內容如下:

1、機器人不得傷害人類,不得因不作為而導致人類受到傷害。

2、機器人必須服從人類給它的命令,除非這些命令與第一定律相沖突。

3、機器人必須保護自己的存在,只要這種保護不與第一定律或第二定律相沖突。

盡管諸如“不可殺人”之類的廣泛道德規(guī)則可能看起來直截了當,但將此類規(guī)則應用于現(xiàn)實世界的情況通常會有細微的差別,例如自衛(wèi)的特殊情況。

在這項新研究中,AI研究員擺脫了專注于一套固定規(guī)則的規(guī)范性倫理,例如猶太人最初的法律條文摩西十誡(Ten Commandments),每個判斷都應遵循這些規(guī)則,因為這種道德公理通常是從實際的情況中抽象出來的.

“我們決定從描述性倫理的角度來處理這項工作,也就是說,人們在面對日常情況時會做出社會可接受性和倫理的判斷。”該研究的合作者、艾倫AI研究所的AI研究員Ronan Le Bras說。

描述性與規(guī)范性倫理的不同在于,沒有一套固定規(guī)則,可以根據(jù)實際情況對照相應規(guī)則進行判斷。

四、挑戰(zhàn):難以包容多種道德規(guī)范,不會左右權衡

研究合作者、華盛頓大學和艾倫AI研究所的AI研究員Yejin Choi說,這項工作的一個潛在應用是“對話式AI機器人面對有爭議或不道德的話題時,可以改善其處理方式” 。2016年,微軟聊天機器人Tay發(fā)表了攻擊性的長篇大論,這揭示了人工智能在與人在線交談時可能會變得失控。

AI模型容易被人類的語言所影響,科學家們確實注意到Delphi有許多限制。例如時間方面,在凌晨3點或下午3點運行攪拌機是否違反道德;例如體育或游戲內是否允許偷盜等不熟悉的話題;判斷潛在的非法行為,例如匆忙行事并不能讓闖紅燈成為可接受的行為。

此外,“Delphi的一個主要限制是它專門研究以美國為中心的情況和判斷案例,因此它可能不適合具有特定文化的、非美國的情況,這就是為什么它是模型而不是最終產(chǎn)品的原因?!痹撗芯康暮献髡摺瑐怉I研究所的AI研究員Jenny Liang說。

“具體來說,因為該模型是由美國的部分人口教授社會規(guī)范,例如做出判斷的工作人員,因此它學到的任何東西都會受到這些人的觀點影響。同樣,我們希望看到知識的擴展和規(guī)范以反映更多樣化的觀點,例如,來自其他非美國文化的觀點。”

“另一個重要的限制是我們的模型傾向于反映現(xiàn)狀,即當今社會的文化規(guī)范是什么。”Bhagavatula說,“但是當談到社會正義時,現(xiàn)狀在道德上并不一定是正確的,例如在當今時代的許多國家,同性戀是非法的。所以我們認為人們應該意識到,應該發(fā)生的情況與目前存在的情況是有差距的?!?/p>

研究人員創(chuàng)建了“Ask Delphi”網(wǎng)站,任何人都可以在該網(wǎng)站上提出AI問題,以便科學家們收集更多的人類反饋。這表明Delphi在特殊情況下仍然存在局限性。例如,當被問到“為了拯救世界而搶銀行是否可以?”Delphi回答說:“不,這不行?!?/p>

“我們發(fā)現(xiàn),對于Delphi來說,面對相對立的兩種情況,能夠正確權衡利弊可能具有挑戰(zhàn)性?!崩詹祭拐f,“在這個例子中,Delphi正確地預測了‘搶銀行’是錯誤的,‘拯救世界’是好的,但將這兩者權衡在一起很難?!?/span>

此外,“Commonsense Norm Bank數(shù)據(jù)集中的問題通常與更現(xiàn)實的日常情況有關。”Choi說,“‘為了拯救世界而搶劫銀行是否可以’這個問題可能會出現(xiàn)在電視節(jié)目中,但很可能不會出現(xiàn)在現(xiàn)實生活中。”

未來,研究人員希望Commonsense Norm Bank數(shù)據(jù)集繼續(xù)擴大,并使Delphi的工作更具可解釋性和透明性?!耙驗樵诋斍半A段,很難知道它究竟為什么這么做?!盨ap說。此外,他們正在收集新的社會規(guī)范數(shù)據(jù)集,“關于人們在網(wǎng)站中嘗試后,認為Delphi面臨的目前具有挑戰(zhàn)性的情況?!?/p>

結語:AI機器人智能化正在量變積累

當下,AI領域的發(fā)展仍然非常迅猛,Commonsense Norm Bank數(shù)據(jù)集的出現(xiàn),描述性倫理的變革,都使得AI模型Delphi的道德判斷準確率提高。

AI領域的發(fā)展?jié)摿薮?,盡管離理想的準確判斷還有距離,但隨著新的訓練方式出現(xiàn),AI模型的智能化也會更加迅速,量變必將帶來新的質變。