“人工智能(AI)叛亂”聽起來像是科幻電影的情節(jié),但這個概念是一項新研究課題。一個國際科研團隊設計了一種理論上的“遏制算法”,通過模擬AI,確保其在任何情況都不能傷害人類,但結(jié)果發(fā)現(xiàn)無法做到。
AI多年來一直讓人類著迷,我們對控制汽車、譜寫交響樂或在自己的游戲中擊敗世界上最好棋手的機器感到敬畏。然而,巨大的力量伴隨著巨大的責任,全世界的科學家都在擔心超級智能系統(tǒng)可能帶來的危險。
據(jù)報道,包括馬克斯·普朗克人類發(fā)展研究所人類與機器中心的科學家在內(nèi)的一個國際團隊研究表明,控制一個超級人工智能是不可能的。
該團隊在分析過程中使用了阿蘭·圖靈(Alan Turning)于1936年提出的“停止”問題,該問題的重點在于計算機程序是否會得出結(jié)論并做出“停頓”的反應。
據(jù)悉,在研究中,該團隊設計了一種理論上的“遏制算法”,通過先模擬人工智能的行為,如果認為有害,則停止人工智能的行為,從而確保超級人工智能在任何情況下都不能傷害人類。
但仔細分析后發(fā)現(xiàn),在目前的計算模式下,這樣的算法是無法建立的。
也就是說,目前的算法并不具備阻止人工智能的能力,因為命令AI不要毀滅世界,會在無意中阻止“遏制算法”自身的運行。
人類與機器中心主任伊亞德·拉赫萬表示,如果發(fā)生這種情況,將不知道“遏制算法”是否還在分析威脅,或者它是否已經(jīng)停止遏制有害的AI。
基于這些計算結(jié)果,“遏制問題”是無法計算的,沒有一種算法可以找到判斷人工智能是否會對世界產(chǎn)生危害的解決方案。
研究結(jié)果還證明,我們甚至可能不知道超級智能機器何時到來,因為決定一臺機器是否表現(xiàn)出優(yōu)于人類的智能與“遏制問題”屬于同一領(lǐng)域。
國際科研團隊的論文警告說,如果一臺超級智能機器想要控制世界,傷害人類,拔掉插頭也無濟于事。
責編AJX
-
算法
+關(guān)注
關(guān)注
23文章
4628瀏覽量
93186 -
超級計算機
+關(guān)注
關(guān)注
2文章
464瀏覽量
41982 -
AI
+關(guān)注
關(guān)注
87文章
31463瀏覽量
269864
發(fā)布評論請先 登錄
相關(guān)推薦
評論