當(dāng)然,這三部法律創(chuàng)造了引人注目的虛構(gòu),但Asimov向讀者介紹了一個(gè)非常真實(shí)且危險(xiǎn)的概念。如果一臺(tái)機(jī)器能夠獨(dú)立于人類的運(yùn)轉(zhuǎn),如果它能夠根據(jù)其先進(jìn)的知識(shí)學(xué)習(xí)和做出選擇,那么它又能阻止它超越一個(gè)人類社會(huì)嗎?
當(dāng)人工智能從科幻小說(shuō)中跳出來(lái),變成現(xiàn)實(shí)時(shí),我們面對(duì)的是現(xiàn)實(shí)生活中的情景——這三種法則可以派上用場(chǎng)。如果有可能在一次突襲中殺死數(shù)以百萬(wàn)計(jì)的人,會(huì)發(fā)生什么?如果這些自主殺手進(jìn)化到無(wú)視創(chuàng)造者的命令,會(huì)怎么樣呢?2013年,瓊斯媽媽參觀了自動(dòng)化機(jī)器的潛在后果:
“我們不是在談?wù)撃切┛雌饋?lái)像一群終結(jié)者的東西,”Steve Goose說(shuō),他是阻止殺手機(jī)器人運(yùn)動(dòng)的發(fā)言人。“隱形轟炸機(jī)和裝甲車輛——不是終結(jié)者。”
盡管該技術(shù)在2013年被預(yù)測(cè)為“一種方式”,但人工智能武器,尤其是無(wú)人機(jī),正以比預(yù)期更快的速度接近。盡管五角大樓發(fā)布了一份2012年的指令,呼吁建立“旨在盡量減少自治和半自治武器系統(tǒng)失敗的可能性和后果的指導(dǎo)方針”,但無(wú)人作戰(zhàn)無(wú)人機(jī)已經(jīng)在韓國(guó)邊境部署,甚至部署。這些進(jìn)展讓科技行業(yè)的一些重要人物——包括埃隆•馬斯克等知名人士——呼吁禁止“殺手機(jī)器人”。
“我們沒(méi)有很長(zhǎng)的時(shí)間來(lái)采取行動(dòng),”馬斯克、斯蒂芬•霍金以及其他114名專家寫(xiě)道。“一旦這個(gè)潘多拉的盒子被打開(kāi),就很難關(guān)閉了。”
《生命未來(lái)研究所》的未來(lái),帶著它最近發(fā)布的《殺戮機(jī)器人》,這部恐怖的科幻短片,講述了一個(gè)不受監(jiān)管的自動(dòng)殺人機(jī)器世界的后果。
“我參與了這部電影的制作,因?yàn)樗寙?wèn)題變得清晰,”加州大學(xué)伯克利分校的人工智能研究員、FLI科學(xué)顧問(wèn)斯圖爾特羅素告訴Gizmodo。雖然政府部長(zhǎng)和軍事律師們?cè)谏鲜兰o(jì)50年代陷入困境,他們爭(zhēng)論的是機(jī)器是否能“真正地自治”,或者真的“在人類的意義上做出決策”,制造大規(guī)模殺傷性武器的技術(shù)正在向前發(fā)展。哲學(xué)上的區(qū)別是無(wú)關(guān)緊要的,重要的是對(duì)人類的災(zāi)難性影響。”
這部電影設(shè)定在不久的將來(lái),講述了一款由人工智能驅(qū)動(dòng)的無(wú)人機(jī),最終落入不法之徒的手中,成為暗殺工具,目標(biāo)直指政客和成千上萬(wàn)的大學(xué)生。這一生產(chǎn)支持了FLI關(guān)于禁止自動(dòng)殺人機(jī)器的呼吁。這一行動(dòng)和類似的行動(dòng)是最近的聯(lián)合國(guó)常規(guī)武器公約的重點(diǎn),70多個(gè)國(guó)家的代表出席了會(huì)議。
我們是不是太遲了,無(wú)法阻止未來(lái)的機(jī)器人末日?這項(xiàng)技術(shù)已經(jīng)問(wèn)世,斯圖爾特警告說(shuō),現(xiàn)在不采取行動(dòng)可能是災(zāi)難性的。根據(jù)他的說(shuō)法,阻止這種全球性破壞的窗口正在迅速關(guān)閉。
“這部短片不僅僅是推測(cè),它展示了我們已經(jīng)擁有的集成和微化技術(shù)的結(jié)果,”拉塞爾在影片結(jié)尾警告說(shuō)。人工智能的潛力巨大,即使是在國(guó)防領(lǐng)域。但允許機(jī)器選擇殺死人類將對(duì)我們的安全和自由造成毀滅性的影響——我的數(shù)千名同事也同意這一點(diǎn)。”
羅素至少在兩方面是正確的。這項(xiàng)技術(shù)已經(jīng)推出。今年早些時(shí)候,來(lái)自卡內(nèi)基梅隆大學(xué)的機(jī)器人專家發(fā)表了一篇論文,題為《學(xué)習(xí)如何在崩潰中飛翔》。這項(xiàng)研究探索了機(jī)器人專家對(duì)AR Drone 2.0的測(cè)試,他們通過(guò)試驗(yàn)和錯(cuò)誤來(lái)指導(dǎo)自己在20個(gè)不同的室內(nèi)環(huán)境中導(dǎo)航。在短短40小時(shí)的飛行時(shí)間里,無(wú)人機(jī)通過(guò)11,500次碰撞和修正控制了空中環(huán)境。
“我們制造了一架無(wú)人機(jī),它的唯一目的就是撞到物體上,”研究人員寫(xiě)道。“我們使用所有這些負(fù)飛行數(shù)據(jù),結(jié)合從相同軌跡取樣的正數(shù)據(jù),來(lái)學(xué)習(xí)一項(xiàng)簡(jiǎn)單而強(qiáng)大的無(wú)人機(jī)導(dǎo)航政策。”
羅素對(duì)人工智能無(wú)人機(jī)的潛力和實(shí)際效益也說(shuō)得很對(duì)。最近,英特爾利用這項(xiàng)技術(shù)收集有關(guān)野生動(dòng)物的視頻和其他數(shù)據(jù),以便更有效地、更少地幫助科學(xué)家進(jìn)行重要研究。
英特爾人工智能產(chǎn)品集團(tuán)副總裁兼總經(jīng)理Naveen Rao在一份聲明中說(shuō):“人工智能將幫助我們解決一些最令人畏懼的挑戰(zhàn),加速解決大規(guī)模的問(wèn)題解決方案,包括釋放新的科學(xué)發(fā)現(xiàn)。”
同樣,通用電氣子公司Avitas Systems也已開(kāi)始部署無(wú)人機(jī),對(duì)包括管道、輸電線和交通系統(tǒng)在內(nèi)的基礎(chǔ)設(shè)施進(jìn)行自動(dòng)化檢查。人工智能無(wú)人機(jī)不僅能更安全、更高效地執(zhí)行監(jiān)控,而且它們的機(jī)器學(xué)習(xí)技術(shù)還能即時(shí)識(shí)別數(shù)據(jù)中的異常情況。
BNSF鐵路公司也在檢查中使用無(wú)人機(jī)。
“他們可以預(yù)先安排無(wú)人機(jī)追蹤軌道,同時(shí)追蹤軌道,”TE互聯(lián)公司的皮特史密斯今天告訴航空公司。“它在收集數(shù)據(jù)。車上有攝像頭拍下軌道的照片。它需要大量的數(shù)據(jù),這些是高分辨率的相機(jī)?,F(xiàn)在的情況是,他們使用人工智能對(duì)數(shù)據(jù)進(jìn)行分析。”
那么,人工智能的無(wú)人機(jī)是否更有幫助或有害?這完全取決于我們接下來(lái)要做什么。如果我們明智地進(jìn)入機(jī)器學(xué)習(xí)領(lǐng)域,那么潛在的好處就太多了,但不作為的風(fēng)險(xiǎn)是不可克服的。
毫無(wú)疑問(wèn),穆斯克、霍金以及他們的聯(lián)名簽署國(guó)呼吁聯(lián)合國(guó)禁止自動(dòng)武器的使用。如果沒(méi)有其他原因,就需要國(guó)際社會(huì)暫停對(duì)人工智能的使用,以保護(hù)人類不受其自身創(chuàng)造的影響。我們已經(jīng)有了一個(gè)理想的指南,簡(jiǎn)單地從Asimov那里得到一個(gè)頁(yè)面。