英國已故科學(xué)家斯蒂芬·霍金的遺作《對大問題的簡明回答》于10月16日發(fā)售。在書中,霍金暗示,不久的未來,富人可以選擇編輯他們自己和孩子的DNA,讓自己和孩子變成擁有更強(qiáng)記憶力、抗病力、智力和更長壽命的“超人”。
霍金遺著封面
富人將有能力選擇變成“超級物種”
霍金寫道:“我敢肯定,本世紀(jì)之內(nèi),人們將找到修改智力和天資的辦法,比如攻擊性。”“可能會制定禁止人類基因工程的法律。但是,有人肯定抵制不了改進(jìn)人類特征的誘惑,比如記憶力、疾病抵抗力和壽命?!?/p>
他還表示,這將對未修改基因的人造成嚴(yán)重后果,導(dǎo)致他們沒有競爭力。這位教授甚至警告說這可能導(dǎo)致人類走向滅絕?!八麄兛赡軙^種,或淪為可有可無?!被艚鹫劦搅似胀ㄈ?。未來1000年的某個時刻,核戰(zhàn)爭或環(huán)境災(zāi)難將“嚴(yán)重破壞地球”??墒?,到那時,“我們的天才種族將已經(jīng)發(fā)現(xiàn)了擺脫地球粗暴束縛的辦法,因此能夠戰(zhàn)勝災(zāi)難”。
不過,地球上的其他物種可能做不到。
書中還提到,成功逃離地球的人很可能是新的“超人”,他們利用諸如“規(guī)律成簇間隔短回文重復(fù)系統(tǒng)(CRISPR)”這樣的基因編輯技術(shù)超過其他人。霍金說,他們會不顧禁止基因工程的法律約束,提高自己的記憶力、疾病抵抗力和預(yù)期壽命。
“已經(jīng)沒有時間留給達(dá)爾文的進(jìn)化論來提高我們的智力、改善我們的天性了?!?/p>
這位《時間簡史》作者還提到了相關(guān)基因編輯方法,比如“規(guī)律成簇間隔短回文重復(fù)系統(tǒng)(CRISPR)”,科學(xué)家可以借此修復(fù)有害基因并加入其他基因。報道稱,盡管這類方法可能促進(jìn)醫(yī)學(xué)發(fā)展,但是一些批評者擔(dān)心它也可能導(dǎo)致優(yōu)生學(xué)式的運(yùn)動,弱勢者將被社會淘汰。
人工智能:別讓人類陷入“螞蟻窘境”
報道稱,霍金對規(guī)范管理人工智能的重要性提出了嚴(yán)重警告,指出“未來人工智能可能形成自己的意志,與我們?nèi)祟愊鄾_突的意志”。
他在書中寫道,應(yīng)當(dāng)制止可能出現(xiàn)的自動武器軍備競賽,提出如果發(fā)生類似于2010年股市閃電崩盤那樣的武器崩盤,其后果將會如何的疑問。他接著寫道:“總之,對人類來說,超級智慧的人工智能的出現(xiàn)不是福就是禍,二者必居其一。人工智能的真正危險并非在于惡意,而在于能力。超級智慧的人工智能將極其擅長實(shí)現(xiàn)目標(biāo)。如果這些目標(biāo)與我們不一致,那我們就麻煩了。你可能不是出于惡意而踩死螞蟻的那種邪惡的仇恨螞蟻的人,但是如果你負(fù)責(zé)一項(xiàng)水力環(huán)保能源項(xiàng)目,而洪水淹沒地區(qū)有一個蟻丘,那么螞蟻就慘了。別讓人類陷入螞蟻的境況。”
地球面臨的最大威脅
未來,地球面臨的頭號威脅就是小行星碰撞,類似那種導(dǎo)致恐龍滅絕的碰撞?;艚饘懙溃骸拔覀儯▽Υ耍o法防御?!?/p>
更直接的威脅是氣候變化。“海洋溫度上升將融化掉冰冠,釋放出大量二氧化碳。雙重效應(yīng)可能導(dǎo)致我們的氣候類似于金星,氣溫達(dá)到250攝氏度?!?/p>
這些年來,霍金做過的預(yù)言
除了以上幾點(diǎn),霍金在世時還做過這些預(yù)言,值得深思。
“外星人”在看著你
在2015年倫敦皇家科學(xué)學(xué)會尋找外星生命跡象的啟動儀式上,霍金就說過:“在無限的茫茫宇宙中,一定存在著其它形式的生命?!?/p>
他說:“或許外星生命會正盯著我們看呢?!薄安还茏罱K地外智慧生命到底存在、還是不存在,現(xiàn)在該是有人正式投入進(jìn)來。這個問題,我們必須要弄個明白?!?/p>
據(jù)介紹,目前已有相關(guān)項(xiàng)目,該項(xiàng)目將動用部分目前世界上最大的望遠(yuǎn)鏡,更遠(yuǎn)地深入宇宙中去捕捉任何無線電波和激光信號。
地球?qū)⒆兂梢粋€“熊熊燃燒的火球”
霍金預(yù)言稱,稱人類可能在2600年前就會滅絕?;艚鹫J(rèn)為,隨著地球人口增長,能源消耗將會增加,地球?qū)⒆兂梢粋€“熊熊燃燒的火球”。
霍金表示相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。就如同1492年的歐洲,探索新大陸對舊世界帶來了深遠(yuǎn)的影響。人類向太空的拓展,甚至將會產(chǎn)生更深遠(yuǎn)的影響,這將徹底改變?nèi)祟惖奈磥?,甚至?xí)Q定我們是否還有未來。
千年內(nèi)人類須移民外星否則“滅絕”
霍金在美國洛杉磯發(fā)表演講時稱,他認(rèn)為,未來1000年內(nèi),基本可以確定的是地球會因某場大災(zāi)難而毀滅,如核戰(zhàn)爭或者溫室效應(yīng)。因此,他強(qiáng)調(diào)人類必須移居其它星球。美國航空航天局局長格里芬也表示,單獨(dú)一顆行星上的物種,是不可能永久生存下來的。
在太陽系中,火星是除地球之外可供人類居住的最佳選擇。但火星載人探測要幾十年之后才能實(shí)施,探測一次往返要450天。
霍金表示:“人類滅絕是可能發(fā)生的,但卻不是不可避免的,我是個樂觀主義者,我相信科學(xué)技術(shù)的發(fā)展和進(jìn)步最終可以帶人類沖出太陽系,到達(dá)宇宙中更遙遠(yuǎn)的地方?!?/p>
智能機(jī)器是真正人類“終結(jié)者”
如上面所說,“超級智慧的人工智能的出現(xiàn)不是福就是禍,二者必居其一。”霍金曾多次表示,“徹底開發(fā)人工智能可能導(dǎo)致人類滅亡”。
按照霍金的說法,人工智能科技在初級發(fā)展階段的確為人類生活帶來便利,但是,機(jī)器將可能以不斷加快的速度重新設(shè)計自己。而人類則受制于生物進(jìn)化速度,無法與其競爭,最終被超越??茖W(xué)界把這種人工智能超越人類智慧的轉(zhuǎn)折點(diǎn)命名為“奇點(diǎn)”。
事實(shí)上,美國Space X首席執(zhí)行官埃隆·馬斯克,微軟創(chuàng)始人兼慈善家比爾·蓋茨,也都警告過要注意人工智能的“危害”。麻省理工學(xué)院教授、科學(xué)家、谷歌、IBM和微軟等企業(yè)員工及與人工智能領(lǐng)域有關(guān)的投資者,也聯(lián)名發(fā)出公開信,表達(dá)同樣的憂慮。
這是我們星球最危險的時刻
英國《衛(wèi)報》網(wǎng)站2016年12月1日刊載霍金的文章《這是我們星球最危險的時刻》。文章指出,英國脫歐公投和特朗普當(dāng)選總統(tǒng),都代表了那些自認(rèn)為被領(lǐng)導(dǎo)人拋棄的民眾的怒吼。這些被遺忘的民眾拒絕了所有專家和精英的建議和指導(dǎo)。西方精英須以謙遜之心看待民粹,切實(shí)彌補(bǔ)貧富差距。
“選票背后暗藏著人們對全球化與技術(shù)加速革新所造成的經(jīng)濟(jì)后果的擔(dān)憂,而這種心理完全可以理解。自動化工廠已經(jīng)裁減了大批傳統(tǒng)制造業(yè)崗位,人工智能的崛起很可能使就業(yè)遭破壞的情況蔓延到中產(chǎn)階級,只有最需要護(hù)理能力、創(chuàng)造力或者管理能力的崗位才能保留下來?!?/p>
“我們應(yīng)不應(yīng)該反過來把投票結(jié)果看成是在宣泄粗魯?shù)拿翊庵髁x,認(rèn)定民粹主義無法認(rèn)清現(xiàn)實(shí),并企圖規(guī)避或者限制選票所代表的選擇結(jié)果?我認(rèn)為如果這樣做將是大錯特錯的?!?/p>
“世界各國領(lǐng)導(dǎo)人必須承認(rèn),他們從過去到現(xiàn)在都在辜負(fù)大眾的期望。隨著資源日益集中到少數(shù)人手中,我們必須變得比現(xiàn)在更懂得如何分享。當(dāng)消失的不只是崗位,還包括整個行業(yè)時,我們必須幫助人們接受再教育,迎接新的世界,必須在他們接受再教育的過程中提供經(jīng)濟(jì)支持?!?/p>
“我非??春梦覀?nèi)祟?。但這需要所有精英,從倫敦到哈佛,從劍橋到好萊塢,都吸取教訓(xùn)。而且首先要學(xué)會保持一定程度的謙遜態(tài)度。”
-
人工智能
+關(guān)注
關(guān)注
1794文章
47642瀏覽量
239643 -
霍金
+關(guān)注
關(guān)注
0文章
40瀏覽量
10519
原文標(biāo)題:霍金臨終擔(dān)憂曝光!富人編輯基因成為“超人”,窮人無法競爭,“階級固化”無法避免
文章出處:【微信號:WUKOOAI,微信公眾號:悟空智能科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論