最近,霍金走了,在人們的愛(ài)戴中,大家都說(shuō)輪椅上的斯蒂芬·霍金終于離開(kāi)了地球,可以和愛(ài)因斯坦、牛頓他們一起打打牌了。但是也有遺愿,下面出國(guó)留學(xué)網(wǎng)來(lái)說(shuō)說(shuō)霍金遺愿清單一覽。
著名物理學(xué)家斯蒂芬霍金教授的家人周三凌晨發(fā)表聲明,證實(shí)霍金教授在英格蘭劍橋的家中去世,享年76歲。
他的孩子露西,羅伯特和蒂姆發(fā)表了一份聲明:
“我們深?lèi)?ài)的父親今天去世了,他是一位偉大的科學(xué)家,一個(gè)非凡的人,他的工作和成就將會(huì)持續(xù)影響這個(gè)世界多年,他堅(jiān)韌不拔的勇氣、他的幽默感激勵(lì)了世界各地的人們, 他說(shuō)過(guò),“果它不是你所愛(ài)的人的家,那它就不是宇宙”。我們會(huì)永遠(yuǎn)懷念他。
斯蒂芬霍金是科學(xué)界最耀眼的明星,他的見(jiàn)解塑造了現(xiàn)代宇宙學(xué),激發(fā)了全球數(shù)百萬(wàn)觀眾的眼球。
約兩周前,霍金參加節(jié)目,被問(wèn),“每個(gè)人都想知道,大爆炸前宇宙是什么樣的?”他給出答案:“宇宙的邊界就是它沒(méi)有邊界,大爆炸前宇宙什么都沒(méi)有?!?BR> 斯蒂芬·威廉·霍金(Stephen William Hawking),1942年1月8日出生于英國(guó)牛津,英國(guó)劍橋大學(xué)著名物理學(xué)家,現(xiàn)代最偉大的物理學(xué)家之一、20世紀(jì)享有國(guó)際盛譽(yù)的偉人之一。
霍金21歲時(shí)患上肌肉萎縮性側(cè)索硬化癥(盧伽雷氏癥),全身癱瘓,不能言語(yǔ),手部只有三根手指可以活動(dòng)。1979至2009年任盧卡斯數(shù)學(xué)教授,主要研究領(lǐng)域是宇宙論和黑洞,證明了廣義相對(duì)論的奇性定理和黑洞面積定理,提出了黑洞蒸發(fā)理論和無(wú)邊界的霍金宇宙模型,在統(tǒng)一20世紀(jì)物理學(xué)的兩大基礎(chǔ)理論——愛(ài)因斯坦創(chuàng)立的相對(duì)論和普朗克創(chuàng)立的量子力學(xué)方面走出了重要一步。獲得CH(英國(guó)榮譽(yù)勛爵)、CBE(大英帝國(guó)司令勛章)、FRS(英國(guó)皇家學(xué)會(huì)會(huì)員)、FRSA(英國(guó)皇家藝術(shù)協(xié)會(huì)會(huì)員)等榮譽(yù)。
2012年4月6日播出的熱播美劇《生活大爆炸》第五季第21集中,史蒂芬·霍金本色出演參與了客串。2017年為英國(guó)BBC錄制紀(jì)錄片《探索新地球》。物理學(xué)家斯蒂芬·霍金11月6日表示,技術(shù)有望逆轉(zhuǎn)工業(yè)化對(duì)地球造成的一些危害,有助于消除疾病和貧困,但人工智能需要加以控制。
2017年11月,霍金預(yù)言2600年能源消耗增加,地球或?qū)⒆兂伞盎鹎颉薄?/strong>
霍金的子女在14日凌晨發(fā)布的一份聲明中說(shuō):“我們非常傷心,我們敬愛(ài)的父親今天去世了?!甭暶鬟€說(shuō),“他是一位偉大的科學(xué)家,一位杰出的人,他的工作和遺產(chǎn)將繼續(xù)流傳于世”。
霍金以黑洞研究和量子宇宙論等享譽(yù)科學(xué)界,被譽(yù)為繼愛(ài)因斯坦之后最杰出的理論物理學(xué)家。在2013年發(fā)布的紀(jì)錄片《霍金》中,他說(shuō):“每一天都可能是我的最后一天,我渴望每一分鐘都不被虛度?!?BR> 美國(guó)計(jì)算機(jī)科學(xué)家安德魯·恩稱(chēng),霍金對(duì)待生活的態(tài)度應(yīng)當(dāng)被人們學(xué)習(xí)。他引用霍金的一句話(huà)說(shuō):“我不畏懼死亡,但我也不急于死亡,還有很多事情我要去做。”
天體物理學(xué)家尼爾·德格拉塞·泰森表示,霍金的死留下了一片“科學(xué)的真空”。但泰森在自己的推特上也寫(xiě)到,“這個(gè)真空并不是空無(wú)一物。你可以把它想象成一種真空能量,它彌漫在時(shí)空的每一個(gè)角落,無(wú)邊無(wú)際?!?BR> 霍金的女兒露西·霍金在談到自己的父親時(shí)表示,雖然人們常常會(huì)對(duì)父親有些敬畏,但其實(shí)“你可以問(wèn)他任何問(wèn)題”。在女兒的眼中,霍金身上所表現(xiàn)出來(lái)的毅力和堅(jiān)持,以及他的幽默風(fēng)趣,始終在激勵(lì)著人們。
霍金曾先后三次到訪(fǎng)中國(guó)。1985年,霍金到中國(guó)科學(xué)技術(shù)大學(xué)和北京師范大學(xué)訪(fǎng)問(wèn),并在中國(guó)科學(xué)技術(shù)大學(xué)做了天體物理的學(xué)術(shù)報(bào)告。
2002年,霍金在北京、杭州作主題為《膜的新奇世界》(Brane New World)科普?qǐng)?bào)告,向公眾闡釋他的關(guān)于天體演化的“M理論”。
2006年6月,霍金在香港科技大學(xué)體育館主持一個(gè)題為“宇宙的起源”的演講時(shí),轟動(dòng)一時(shí)。當(dāng)月19日,霍金在人民大會(huì)堂向北京公眾講述《宇宙的起源》。
霍金在中國(guó)十分受歡迎,他在2016年開(kāi)通微博與中國(guó)粉絲互動(dòng),目前微博有超過(guò)400萬(wàn)個(gè)粉絲,不少人在他的微博留下悼念字句。
霍金21歲時(shí)患上肌肉萎縮性側(cè)索硬化癥(盧伽雷氏癥),全身癱瘓,不能言語(yǔ),手部只有三根手指可以活動(dòng)。醫(yī)生斷言他只能活兩到三年。然而霍金并沒(méi)有被病魔打倒,他不僅繼續(xù)了他的科學(xué)事業(yè),而且還結(jié)婚并成為了三個(gè)孩子的父親。
在過(guò)去的二十年里,霍金是明星,除了繼續(xù)探索宇宙理論,他也出現(xiàn)在各種場(chǎng)合,為所有關(guān)切人類(lèi)命運(yùn)的主題發(fā)聲。而在他去世前的這幾年中,霍金最關(guān)注的話(huà)題就是:離開(kāi)地球和警惕人工智能。
現(xiàn)在我們就梳理下霍金通過(guò)各種渠道談?wù)撨@兩個(gè)話(huà)題的言論。
關(guān)于離開(kāi)地球,早在2011年霍金在接受美國(guó)視頻共享網(wǎng)站BigThink訪(fǎng)談時(shí)就稱(chēng)地球?qū)⒃趦砂倌陜?nèi)毀滅,人類(lèi)要想活命只能移民外星球。
2017年11月5日,北京騰訊WE大會(huì)的現(xiàn)場(chǎng)?;艚鹜ㄟ^(guò)視頻指出了人類(lèi)移民太空的原因所在:一個(gè)原因是,對(duì)我們來(lái)說(shuō),地球變得太小了。在過(guò)去二百年中,人口增長(zhǎng)率是指數(shù)級(jí)的,即每年人口以相同比例增長(zhǎng)。目前這一數(shù)值約為1.9%。 這聽(tīng)起來(lái)可能不是很多,但它意味著,每四十年世界人口就會(huì)翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時(shí)膨脹了四倍。這樣的指數(shù)增長(zhǎng)不能持續(xù)到下個(gè)千年。 到2600年,世界將擁擠得“摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。然而我是個(gè)樂(lè)觀主義者,我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類(lèi)在其他星球上生活的可能。
而在2017年7月,霍金就痛批美國(guó)總統(tǒng)特朗普退出氣候問(wèn)題《巴黎協(xié)定》的決定,可能將導(dǎo)致不可逆轉(zhuǎn)的氣候變化,警告稱(chēng)此舉或?qū)⒆尩厍蜃兂梢粋€(gè)金星一樣的溫室星球。霍金在接受BBC專(zhuān)訪(fǎng)時(shí)表示,我們正在接近全球變暖不可逆轉(zhuǎn)的臨界點(diǎn),特朗普的決定可能將地球推過(guò)這個(gè)臨界點(diǎn),變成像金星一樣的星球,溫度高達(dá)250度,并且下著硫酸雨。
也是在2017年6月播放的紀(jì)錄片《遠(yuǎn)征新地球》(Expedition New Earth)中,霍金說(shuō),在未來(lái)一百年內(nèi),人類(lèi)為生存必須離開(kāi)地球,在太空尋求新家。
離開(kāi)地球,霍金也不是光嘴皮子嚇唬嚇唬大家,2016年4月12日在紐約宣布啟動(dòng)“突破射星”計(jì)劃,將同俄羅斯商人尤里·米爾納(Yuri Milner),以及美國(guó)社交網(wǎng)站面簿創(chuàng)始人兼總裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飛往比鄰星的微型星際飛船。
除了地球即將面臨的各種風(fēng)險(xiǎn),霍金更關(guān)切人類(lèi)正在創(chuàng)造一個(gè)毀滅自己的怪物:人工智能(AI)。
2017年3月,霍金在接受英國(guó)《泰晤士報(bào)》采訪(fǎng)時(shí)再次發(fā)出警告,“人類(lèi)需要控制以人工智能為代表的新興科技,以防止它們?cè)谖磥?lái)可能對(duì)人類(lèi)生存帶來(lái)的毀滅性威脅?!彼€說(shuō),“自從人類(lèi)文明開(kāi)始以來(lái),侵略便一直存在,往往出現(xiàn)在相對(duì)具有生存能力優(yōu)勢(shì)的不同群體之間,而未來(lái)人工智能進(jìn)一步發(fā)展便可能具備這種‘優(yōu)勢(shì)’”,霍金解釋自己的警告時(shí)說(shuō)道,“他們本身也是生根于達(dá)爾文的進(jìn)化論之中。因此人類(lèi)需要利用邏輯和理性去控制未來(lái)可能發(fā)生的威脅?!?BR> 2016年10月19日,劍橋大學(xué)“萊弗休姆的未來(lái)智能中心(LCFI)”正式投入使用。霍金在慶祝典禮上發(fā)表了演講。霍金在演講中批評(píng)了人工智能的無(wú)節(jié)制發(fā)展,他認(rèn)為,人工智能技術(shù)的確有希望帶來(lái)巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來(lái)危險(xiǎn),比如強(qiáng)大的自主式武器,或者幫助少數(shù)人壓迫多數(shù)人。“我們花了大量的時(shí)間來(lái)學(xué)習(xí)歷史。”霍金說(shuō),“讓我們面對(duì)現(xiàn)實(shí),大部分的歷史是愚蠢的。所以對(duì)于那些學(xué)習(xí)未來(lái)智能的人應(yīng)該表示歡迎?!?“我們生活的每一個(gè)方面都會(huì)改變??傊?,創(chuàng)造AI的成功可能是我們文明歷史上最大的事件?!被艚鹫f(shuō)。
2016年1月26日和2月2日在BBC電臺(tái)第四頻道播出霍金瑞思系列演講(Reith Lectures),在演講中他直言,科學(xué)技術(shù)的進(jìn)一步發(fā)展會(huì)惹出更多的新麻煩。同樣在這個(gè)演講中,霍金依舊認(rèn)為科技進(jìn)步是人類(lèi)的新威脅。他甚至提及若人類(lèi)最終得以在其他星球建立家園,或許還能幸存下來(lái)。
“盡管地球在某一年遭受滅頂之災(zāi)的可能性很低,但隨著時(shí)間的推移,在未來(lái)幾千或幾萬(wàn)年,這會(huì)是可以預(yù)見(jiàn)的事情。那時(shí),我們應(yīng)該已經(jīng)進(jìn)入太空、住到其他星球上。所以地球上的毀滅并不意味著人類(lèi)的終結(jié)?!薄叭欢?,至少在未來(lái)數(shù)百年里我們還無(wú)法在太空世界建起人類(lèi)的地盤(pán)。所以我們現(xiàn)在必須非常小心?!?BR> 2015年,霍金曾聯(lián)合思想家喬姆斯基馬斯克等數(shù)千名知識(shí)分子發(fā)表聯(lián)名公開(kāi)信中警告:必須取締“機(jī)器人殺手”的研發(fā)和應(yīng)用,人工智能方面的軍備競(jìng)賽可能是人類(lèi)的災(zāi)難,它將助長(zhǎng)戰(zhàn)爭(zhēng)和恐怖主義,加劇世界動(dòng)蕩局勢(shì)。
這封公開(kāi)信由未來(lái)生活研究所(Future of Life Institute)發(fā)起,這個(gè)團(tuán)體致力于緩解“人類(lèi)面臨的生存風(fēng)險(xiǎn)”,警告人們啟動(dòng)“人工智能軍備競(jìng)賽”的危險(xiǎn)。公開(kāi)信中談到“人工智能技術(shù)已經(jīng)達(dá)到了這樣一個(gè)地步:如果沒(méi)有法律限制,那么這種系統(tǒng)的部署在未來(lái)幾年中就可以實(shí)現(xiàn),并不需要等待幾十年?!?BR> 而早在2014年12月,霍金接受英國(guó)廣播公司(BBC)采訪(fǎng)時(shí)就明確表示:“制造能夠思考的機(jī)器無(wú)疑是對(duì)人類(lèi)自身存在的巨大威脅。當(dāng)人工智能發(fā)展完全,就將是人類(lèi)的末日?!?BR> 霍金也許對(duì)人類(lèi)和科技的未來(lái)是悲觀的,他并不信任人類(lèi)真的能控制科技這個(gè)怪物,但令人諷刺的是,一旦人類(lèi)用科技?xì)У袅诉@個(gè)星球,他所能仰賴(lài)的也只有科技能幫這個(gè)種族在外星球繼續(xù)繁衍。
宇宙起源
2006年霍金曾表示,愛(ài)因斯坦的廣義相對(duì)論無(wú)法解釋宇宙如何由大爆炸形成,如果把廣義相對(duì)論和量子論相結(jié)合,就有可能解釋宇宙是如何起始的,“這是回答我們?yōu)楹卧诖耍覀儚暮味鴣?lái)的宇宙學(xué)核心問(wèn)題”。
他和物理學(xué)家羅杰·彭羅斯一起證明了奇點(diǎn)定理,認(rèn)為宇宙起源于一個(gè)時(shí)間和空間消失、物質(zhì)密度無(wú)限大的奇點(diǎn)。
在霍金想象中,宇宙起源有點(diǎn)像沸騰水中的“泡泡”。他認(rèn)為,宇宙的開(kāi)端,可能出現(xiàn)了許多“小泡泡”,然后再消失?!芭菖荨迸蛎浀耐瑫r(shí),會(huì)伴隨著微觀尺度的坍縮。一些坍縮的“泡泡”,由于不能維持足夠長(zhǎng)的時(shí)間,來(lái)不及發(fā)展出星系和恒星,更不用說(shuō)智慧生命了。但一些“小泡泡”膨脹到一定尺度,就可以安全地逃離坍縮,繼續(xù)以不斷增大的速率膨脹,形成了我們今天看到的宇宙。
“我們已經(jīng)觀察到,宇宙的膨脹在長(zhǎng)期變緩后再次加速,現(xiàn)有理論仍不能很好地解釋這個(gè)現(xiàn)象。宇宙學(xué)是一個(gè)非常激動(dòng)人心的學(xué)科。我們正接近回答古老的問(wèn)題:我們?yōu)楹卧诖??我們從何而?lái)?”他說(shuō)。
黑洞理論
1974年,霍金提出了著名的“霍金輻射”學(xué)說(shuō),該學(xué)說(shuō)是霍金對(duì)天體物理學(xué)作出的最大貢獻(xiàn)之一。
霍金在該學(xué)說(shuō)中指出,黑洞在特定條件下會(huì)放射出一種微小的放射物,最后所有的黑洞將隨著時(shí)間的推移慢慢地蒸發(fā)掉。但是根據(jù)量子力學(xué)所描述的微觀粒子的運(yùn)動(dòng)規(guī)律,黑洞及被其“吞噬”掉的物質(zhì)是不會(huì)簡(jiǎn)單消失的。
30多年來(lái),霍金試圖以各種推測(cè)來(lái)解釋這些相矛盾的觀點(diǎn)。他還曾提出,黑洞中有關(guān)量子力學(xué)的規(guī)律是不同的。但是他的這一觀點(diǎn)遭到了他的同事和其他國(guó)家科學(xué)家的質(zhì)疑。
霍金在經(jīng)過(guò)長(zhǎng)時(shí)間的研究后在2004年柏林的一次會(huì)上提出,一些被黑洞吞沒(méi)的物質(zhì)隨著時(shí)間的推移,慢慢地從黑洞中“流淌”出來(lái)。也就是說(shuō),黑洞既“破壞”也“建設(shè)”。
人類(lèi)未來(lái)
霍金2008年曾在美國(guó)喬治·華盛頓大學(xué)大膽預(yù)言,假如人類(lèi)的歷程再走100萬(wàn)年,“人類(lèi)的足跡必將進(jìn)入那些從未涉足過(guò)的宇宙空間”。他說(shuō),新世界的發(fā)現(xiàn)對(duì)舊世界產(chǎn)生了深遠(yuǎn)影響,“否則我們就不會(huì)見(jiàn)到現(xiàn)在滿(mǎn)世界的麥當(dāng)勞和肯德基了”。
霍金說(shuō),人類(lèi)向外太空擴(kuò)展將帶來(lái)比發(fā)現(xiàn)新大陸的“地理大發(fā)現(xiàn)”更巨大的影響,徹底改變?nèi)祟?lèi)未來(lái)。他認(rèn)為,人類(lèi)將在30年內(nèi)在月球上建立基地,以開(kāi)展長(zhǎng)期的宇宙探索活動(dòng);在200年至500年內(nèi),人類(lèi)將發(fā)明新的推進(jìn)系統(tǒng),讓在太陽(yáng)系外的宇宙空間開(kāi)展載人探索變得可能。
“請(qǐng)(對(duì)宇宙)充滿(mǎn)好奇,”他說(shuō),“我們必須為了人類(lèi)繼續(xù)走向太空。如果不逃離我們脆弱的星球,我們將無(wú)法再生存1000年?!?BR> 霍金說(shuō)自己時(shí)常在想一個(gè)問(wèn)題:“我們?nèi)祟?lèi)(在宇宙中)是孤單的嗎?”“答案很可能是‘不’?!?BR> 這位身體無(wú)力卻思想飛揚(yáng)的科學(xué)家說(shuō),如果外星生命有足夠智慧,以至于能向太空中發(fā)送信號(hào),那么他們肯定也聰明到了可以制造破壞性核武器的地步了。他本人傾向于這樣一種假設(shè)——宇宙間的原始生命是非常普遍的,但是智能生命卻相當(dāng)罕見(jiàn)。
人工智能
霍金坦承人工智能的初步發(fā)展已證明了其有用性,但他擔(dān)心這類(lèi)技術(shù)最終會(huì)發(fā)展出與人類(lèi)智慧相當(dāng)甚至超越人類(lèi)的機(jī)器。“到時(shí)它(機(jī)器)將可能以不斷加快的速度重新設(shè)計(jì)自己,而人類(lèi)則受制于生物進(jìn)化速度,無(wú)法與其競(jìng)爭(zhēng),最終被超越。”
2014年,霍金曾與另外幾位科學(xué)家為英國(guó)《獨(dú)立報(bào)》撰文,稱(chēng)人們目前對(duì)待人工智能的潛在威脅“不夠認(rèn)真”?!岸唐趤?lái)看,人工智能產(chǎn)生何種影響取決于誰(shuí)在控制它。而長(zhǎng)期來(lái)看,這種影響將取決于我們還能否控制它。”如何趨利避害是所有人需要考慮的問(wèn)題。
不過(guò)也有科學(xué)家認(rèn)為,霍金對(duì)人工智能的未來(lái)過(guò)于悲觀。他們指出,至少在相當(dāng)長(zhǎng)的時(shí)間里,人類(lèi)會(huì)完全掌控這類(lèi)技術(shù)的發(fā)展,利用它來(lái)解決許多現(xiàn)實(shí)問(wèn)題,而要讓人工智能技術(shù)得到“充分發(fā)展”,還有很長(zhǎng)的路要走。
讓我們別忘記霍金的預(yù)言和警告。