人工智能恐變人類末日 霍金吁公眾關注

(倫敦4日綜合電)諾貝爾物理學獎得主霍金日前在英國《獨立報》撰文,呼籲公眾關注人工智能(AI)發展可能帶來災難。

他以美國影星尊尼特普最新電影《超越潛能》為例,指人工智能可能是“人類史上最后一宗大事件”,專家應及早準備及研究方案,防止人工智能進化失控危及人類。

他說,“當你為人工智能的飛速發展而歡呼雀躍時,這或許對人類歷史並不是什么好事。”

他的意思是:人工智能可能會導致人類的滅亡。

或導致貧富懸殊

文章由霍金與另外3名著名物理學家及人工智能專家署名,指出近年人工智能在史無前例的龐大投資和相關理論日漸成熟下發展迅速,諸如自動駕駛汽車、語音助理Siri等,並相信未來數十年發展更一日千里。

不過假如人類不懂得避免箇中風險,人工智能也可能是人類末路。文章說,短期內人工智能可能用于自動武器系統,聯合國已倡導條例禁止這類武器;中期而言,人工智能發展則可能改變經濟形態,帶來龐大財富和嚴重不均。

不信任人工智能專家

霍金擔憂的對象不僅僅是未來的人工智能技術,甚至還包括現在的一些公司比如谷歌和面子書。

他說:“人工智能的短期影響取決于由誰來控制它,而長期影響則取決于它是否能夠被控制。”

不管從短期還是長期角度來說,人工智能都存在著巨大的潛在風險。實際上,霍金似乎根本就不信任所謂的人工智能專家。

霍金承認,機器人和其他的人工智能設備也許會給人類帶來巨大的好處。如果那些設備的設計非常成功,就能給人類帶來巨大的好處,他說那將是人類歷史上最大的事件。

然而他同時也提醒說,人工智能也有可能是人類歷史上最后的事件。

實際上,人類在考核人工智能技術的潛在風險和收益方面所做的研究工作太少。霍金對此表示擔憂。

他說:“人工智能技術發展到極致程度時,我們將面臨著人類歷史上的最好或者最壞的事情。”

擁有人類智慧

機器人恐想征服世界

尊尼特普在《超越潛能》中扮演人工智能領域首屈一指的研究人員威爾,他致力于開創有史以來最人性化的有感知的機器人,全方位結合了人類情感和智慧。

雖然威爾這些極具爭議的實驗令他一舉成名,但同時也讓他成為反科技極端分子的眼中釘,這些極端分子開始極盡一切剷除他。

然而沒想到的是,在他們殺死威爾一刻,威爾臨死之前倉促地將自我意識上傳至電腦中,從而形成了一個結合生物智慧和人工智能、所向無敵的“超級電腦”故事由此展開。

不過和《魔鬼終結者》(The Terminator)不同的是,這台“超級電腦”不僅沒大開殺戒毀滅人類,反而利用先進技術治癒人類疾病,淨化環境。

從這個角度揣測電影的內核,可以說是一個人工智能的烏托邦理想,從更深層考量,則反映了人類渴望與科技之間真正達成信賴的願望。

然而理想畢竟與現實不同,按照此類科幻片的節奏,“超級機器人”擁有人類智慧之后,往往會搶奪“控制”的主動權,成為一心征服世界、控制人類的邪惡機器──而這正是霍金所擔心的!

人工智能叛變

科幻片歷久不衰題材

根據《維基百科》講述,人工智能叛變(Cybernetic Revolt)或機器人起義(Robot Uprising)是科幻作品中長久以來一直不斷出現的題材。

這種類型大多是具有人工智慧的程式、機器人或是超級電腦產生了自覺,並向製造它們的人類起兵叛變並奪取掌控權,最后徹底的屠殺或奴役人類。

捷克作家卡雷爾.恰佩克于1921年所寫的《羅素姆的萬能機器人》可以算是這類題材的開端。該劇開始于一個用有機合成物製造人造人的工廠,那些人造人被稱「機械人」。

這些機械人外表和人類無異,他們甚至有自己的思想。起初,他們看來快樂地服務人類,但情況慢慢改變,一個對人類懷有敵意的機械人帶頭反抗人類,導致人類滅亡。

而好萊塢導演占士.金馬倫拍攝的《魔鬼終結者》系列,更是此類題材的經典。在《終結者》中,人類文明被自己所研發的人工智能發射核彈毀滅,未來的人類不得不在一片廢墟上與刀槍不入的機械人長期苦戰。

市场脉搏
更多
看影音热议更多
健康点
更多