新浪科技訊 北京時(shí)間5月28日消息,據(jù)國(guó)外媒體報(bào)道,隨著人工智能的發(fā)展,越來(lái)越多的科學(xué)家開(kāi)始擔(dān)憂人工智能會(huì)給人類帶來(lái)各種難以預(yù)計(jì)的影響,甚至可能是災(zāi)難。在近日開(kāi)幕的“TED2017”大會(huì)上,計(jì)算機(jī)專家斯圖爾特-拉塞爾再次發(fā)出警告稱,人類制造出的事物(人工智能)將可能進(jìn)化得比人類更聰明。拉塞爾建議,人類必須要在機(jī)器人內(nèi)部預(yù)置不確定性,以防備它們的背叛。
美國(guó)加州大學(xué)伯克利分校計(jì)算機(jī)教授斯圖爾特-拉塞爾解釋說(shuō),雖然他本人也支持人工智能的研究,但總感覺(jué)制造出一種比自身物種更為聰明的事物并不一定是好事情。拉塞爾建議,為了防止機(jī)器人接管我們?nèi)祟悾覀儽仨氈圃斐鰺o(wú)私心的機(jī)器人,即在它們的目標(biāo)任務(wù)中存在一定程序的不確定性,應(yīng)該教會(huì)它們?nèi)祟悆r(jià)值觀方面的知識(shí)。通過(guò)向人工智能系統(tǒng)中灌輸“人類常識(shí)”,科學(xué)家必須重新定義人工智能,這樣我們才能制造出有益的機(jī)器。
拉塞爾表示,機(jī)器人應(yīng)該按照某種法則或定律去編程,就比如科幻作家艾薩克-阿西莫夫提出的機(jī)器人三定律,以防止它們?cè)趫?zhí)行任務(wù)時(shí)造成無(wú)意識(shí)的傷害。艾薩克-阿西莫夫所提出的機(jī)器人三定律主要內(nèi)容包括:1)機(jī)器人不得傷害人類,或因袖手旁觀使人類受到傷害;2)在不違背第一定律的前提下,機(jī)器人必須服從人類的命令;3)在不違背第一及第二定律的前提下,機(jī)器人必須保護(hù)自己。因此,在為機(jī)器人編程時(shí),就必須將利他主義、謙虛謹(jǐn)慎的態(tài)度以及其它一些人類價(jià)值觀方面的優(yōu)越性編寫(xiě)進(jìn)去。拉塞爾認(rèn)為,“這是人類與人工智能互相適應(yīng)、和諧相處的第一步。”
不過(guò),蘋(píng)果Siri高級(jí)研發(fā)主管湯姆-格魯伯對(duì)人類和人工智能的未來(lái)抱有較為樂(lè)觀的態(tài)度。他認(rèn)為,人工智能將可用于增強(qiáng)人類的忘記力,讓人類不再會(huì)忘記任何事情。格魯伯表示,“人工智能所帶來(lái)的超人能力是不可避免的,這能夠讓我們記住每個(gè)人的名字,記住聽(tīng)過(guò)的每一首歌或者看過(guò)的任何事物。人工智能能夠與人類協(xié)作,而不是許多人所擔(dān)心的對(duì)抗,它們能夠幫助我們?nèi)祟悜?zhàn)勝極限。如何利用這一強(qiáng)大的科學(xué)技術(shù),我們有自己的選擇。我們既可以讓它們與我們競(jìng)爭(zhēng),也可以讓它們與我們協(xié)作。它們只會(huì)讓我們克服局限,做得更好。機(jī)器人變得越來(lái)越聰明,我們?nèi)祟愐矔?huì)更加聰明?!保ū虮颍?/p>