世界末日風險評估:人類文明面臨這九大滅世威脅

在不久前的一篇封面報道中,《連線》(Wired)雜誌英國版採訪了地球的守護者:一支努力保護這個星球免受末日威脅的學者隊伍。

這支隊伍中有受過高等教育的專家、律師、學者和哲學家,他們組成了生存風險研究中心(Centre for the Study of Existential Risk,簡稱CSER)以及萊弗休姆未來智能研究中心(Leverhulme Centre for the Future of Intelligence,簡稱CFI)。

這些人聚在一起對地球及人類面臨的種種系統性風險進行評估,並研究了我們如何才能將人類文明從即將來臨的末日中拯救出來。

以下是這些專家眼中最緊迫的九大威脅。但不用擔心,我們對每一種威脅都有一套應對計劃。

1.人工智慧統治世界

機器進化出優於以及獨立於人類的智能,這是末日威脅研究社群最重要的關注點之一。

牛津大學哲學教授尼克·博斯特羅姆(Nick Bostrom)稱,從農業革命到工業革命,人類過往的技術革命是在不斷加速的,不出意外的話,人工智慧這趟列車「可能不會在人類文明這一站停留乃至減速」。他預測,到2075年時,機器將擁有相當於人類90%的智能。

正如生命未來研究所聯合創始人塔林(Tallinn)指出的,這個威脅的緊迫性還有另一層原因:人工智慧崛起的風險會加劇其他所有風險。換句話說,地球面臨著這樣一種威脅,即智能機器人可能脫離人類控制,摧毀生態環境,或者製造核冬天。

這個領域的研究有形而上的(我們應該讓人工智慧的道德觀念跟人類保持一致嗎?如果是這樣,人類的道德觀念又是什麼呢?),也有形而下的(我們如何對自動化武器進行監管?)。這些研究也存在很多爭議,一些研究人員認為,人工智慧不會構成末日威脅。關於末日威脅的說法並不是它會,而是它能。因此,人工智慧在末日威脅研究社群的議程中排名很靠前。

潛在爆發日期:2075年

末日威脅等級:非常高

2.威脅全人類的大瘟疫

一種可能性是,一個心懷不滿的人可能製造或盜取病毒,並在世界範圍內散播。

自然存在和人為製造的大瘟疫是被研究最多的全球性威脅之一。「功能獲得」(gain of function)實驗引起的爭議為這個領域的研究賦予了新的緊迫性,這些實驗涉及操縱一種已知的病原體,為其添加具有風險的額外能力。

舉例來說,在2011年,病毒學家羅恩·富希耶(Ron Fouchier)跟河岡義裕(Yokhihiro Kawaoka)製造了一種可以在雪貂之間傳播的禽流感病毒毒株。他們這樣做是為了更好地了解病毒在野外進化出可傳播性的條件。

這樣的實驗可以避免某些風險,但也帶來了一種更大的風險,即經過改造的病毒可能逃出實驗室,製造全球性的大瘟疫。

這其中的風險特別巨大,因為病毒可以進行自我複製。核爆炸的影響或許還是區域性的,而在這個高度連通的世界中,沒有解藥的病毒卻可能在數天之內傳遍全球。

在過去,像黑死病那樣的自然瘟疫造成了數百萬人的死亡,並引發了大規模的社會變革。在21世紀,先進的生物技術可能製造出的大瘟疫會讓黑死病顯得只是不值一提的小感冒。

人類未來研究所對所謂的「管道風險」進行了研究,即這些病毒如何可能逃脫出去。一種可能性是,一個心懷不滿的人——也許是實驗室的僱員——可能製造或盜取病毒,並在世界範圍內散播。研究人員兼作家安德斯·桑德伯格(Anders Sandberg)正在撰寫一篇論文,探討那些電影大反派式的人物想要毀滅人類的動機。

「研究其實舉步維艱,因為幾乎沒有人想要這樣做,可供研究的原始資料極少。」桑德伯格說道。這迫使他分析宗教和邪教在多大程度上可能去煽動大屠殺(據桑德伯格稱,大多數教派都不會)。在CSER進行類似的研究時,他們得出了一個關於當前狀況的重要洞見:生物技術實驗室目前都沒有制定對僱員進行心理分析的規定。

潛在爆發日期:現在

末日威脅等級:很高

3.人工智慧驅動的武器奪取控制權並組成軍隊

目前,韓國已經在朝韓邊境部署了武裝機器人哨兵,因此可以毫不誇張地說,自動化武器已經被投入使用。我們不難想像,這些武器的未來版本將能夠使用面部識別軟體來追捕目標,而3D列印技術將讓軍閥、極端無政府主義者或恐怖分子得以輕鬆地儲備武器。

一如既往,這裡面存在一個悖論。在過去的國與國戰爭中,國家需要製造破壞力超強的武器來攻城略地,並派遣軍人開展軍事行動,這就會導致種種與戰爭無關的折磨與非理性行為。而機器人武裝可以進行精確打擊,機器人士兵也不會遭受折磨或者威脅無辜平民。

然而,這些武器也將變得又小又便宜,

其所有權不再被國家壟斷,軍事力量也將不再是舉國規模,正如塔林所言:「有可能5個人拉著兩卡車微型自動化武器就能摧毀整個城市。在那樣的世界中,有可能你一早醒來就看到新聞說,又有一連串城市被摧毀了,但是卻沒有人能夠確定發動襲擊的幕後黑手是誰。」

如果這聽起來很可怕,那麼再想想,如果一個危險的超級人工智慧控制了這些機器人武裝的話……

潛在爆發日期:隨時

末日威脅等級:低

4.核戰爭終結文明

雖然人們對核戰爭的討論已經遠遠少於冷戰期間,但成千上萬的核武器仍然處於隨時待命狀態,而且擁核國家之間也存在劍拔弩張的局勢,比如克什米爾和烏克蘭。

全球災難性風險研究所(Global Catastrophic Risk Institute,簡稱GCRI)正密切關注這個課題,並尤其關注俄羅斯和美國爆發意外戰爭的可能性,這兩個國家擁有世界上90%的核武器。

所謂意外戰爭,可能就是一方錯認虛假警報,發動真實攻擊進行報復。在GCRI研究的90%的場景中,意外戰爭爆發的年度概率在0.07至0.00001之間。

從邏輯上講,0.07這個數字意味著,意外的核戰爭平均每14年可能爆發一次。

除了那些不幸成為轟炸目標的人之外,核打擊帶來的輻射不一定會對整個人類造成威脅。只有當足夠多的城市(大約100個)遭到轟炸,讓煙塵瀰漫平流層,阻擋太陽的熱量並降低地球溫度,我們才會真正面對來自核冬天的威脅。

這種人為製造的冬天會減少受影響地區的糧食產量。如果這種事發生在美國、俄羅斯和歐洲,那麼糧食減產就足以引發世界其餘完好國家和地區的崩潰,從而造成人類文明終結。

潛在爆發日期:隨時

末日威脅等級:低至中等

5.極端氣候變化導致基礎設施崩潰

氣候變化是CSER研究的主要課題之一,但一些末日威脅研究人員認為,這個問題並非一個十分緊迫。根據桑德伯格的說法,因為「這個問題太小了」。這在一定程度上是因為,已經有很多其他人在研究這個課題,以及氣候變化構成威脅這個事實已然深入人心——但自相矛盾的是,這也是因為其中存在太多的未知數。

「情況可能是,我們會在本世紀研發出能夠解決氣候變化問題的技術。」桑德伯格說,「但話說回來,我們也可能研發出讓情況變得更糟糕的技術。我們不知道人類活動會造成多大的溫度變化,因此我們實際上很難準確地對預測進行建模。」

對於很多通常跟氣候變化聯繫在一起的潛在災難性影響,那些研究末日威脅的人都興緻缺缺。

然而,除了溫度上升導致大量人群死於中暑(這種事情不大可能發生),氣候變化的最大威脅在於它有可能導致人工和自然基礎設施崩潰——例如,一個物種因氣候變化滅絕,繼而通過連鎖反應摧毀一個生態系統。換句話說,氣候變化最終可能是通過由其導致的疫病或者因資源日益減少而爆發的核戰爭來消滅人類的。

潛在爆發日期:隨時

末日威脅等級:低至中等

6.小行星撞擊地球,摧毀所有生命

如果不是有大氣層的話,地球將不斷遭到小行星的轟炸,因為大氣層有能力燒盡任何直徑不足10米的東西。這是非常有用的,因為即使一顆直徑10米的隕石也能積聚起相當於廣島原子彈的動能。

地球每1,000年就會遭受一兩次直徑超過10米的小行星或彗星的撞擊,每100萬年則會被一顆直徑至少達到1千米的小行星撞上,那足以影響地球的氣候,並導致作物歉收,繼而危及人口安全。

真正達到滅世級別的撞擊事件——比如在大約6,600萬年前滅絕恐龍的希克蘇魯伯隕石,它撞出的隕石坑直徑達到了180千米——每5,000萬至1億年才會出現一次。

這可能足以引起我們的擔憂,但有兩個事實會讓人感到安心:第一,天文學家密切監視著可能對地球構成威脅的大個頭天體;第二,有一個完整的跨學科科學家社群在研究這些天體逼近地球時的對策。

天文學家負責尋找小行星,數學家負責計算它們的飛行軌道,地球物理學家負責思考它們帶來的撞擊以及造成的影響,太空工程師則負責想出讓它們轉向的最好辦法。

我們潛在的應對策略包括:發射飛船把小行星塗成容易反射太陽風的白色,進而利用其反作用力推動小行星偏離原來的軌道;利用引力牽引航天器把小行星推開;用航天器撞擊小行星;以及利用激光器或核炸彈轟擊小行星。

潛在爆發日期:5,000萬至1億年

末日威脅等級(在2017年):低

7.我們生活在一個複雜的模擬世界當中

為了對一些複雜的風險進行準確計算,末日威脅研究人員必須把自己所知的限制考慮在內。在這方面的研究中,最深奧難懂的是這樣一種假說,即我們可能遠非宇宙中最聰明的生命形式(至少在計算機超越我們之前),實際上只是棋盤上受人操縱而不自知的小卒子。

這種模擬假說認為,人類及其全部歷史和文化只是一種更高實體進行的一場實驗或遊戲,正如電影《楚門的世界》(The Truman Show)探討的那樣。博斯特羅姆表示,FHI對這種假說進行了研究,因為它是「對我們關於未來以及自身在世界位置潛在想法的一種限制」。

類似的概念還有「玻爾茲曼大腦」(Boltzmann pain),這個以物理學家路德維希·玻爾茲曼(Ludwig Boltzmann)命名的術語是在2004年被創造出來的。

從本質上講,這種理論認為,人類只是多元宇宙中物質的一種隨機集合,而多元宇宙中還有很多我們無從了解的事物。量子力學表明,最小單位的能量偶爾會產生一個物質粒子。因此,鑒於時間的無限性,它們有可能隨機產生一個擁有自我意識的大腦,但這個大腦不一定能夠理解任何超出自身經驗的東西。

一些支持者利用這個概念來解釋為什麼宇宙看起來如此有序,其他哲學家和科學家則在努力證明為什麼玻爾茲曼大腦不可能存在。「幾乎沒什麼人把玻爾茲曼大腦當回事。」桑德伯格說,「但這是一個令人討厭的問題。」科學家很少把這當成末日風險進行研究,一定程度上是因為,即便模擬假說是真的,我們也無計可施。

潛在爆發日期:不可知

末日威脅等級:很低

8.食物短缺導致大饑荒

到2050年,全球人口預計達到96億。一些觀察人士認為,為了避免大規模的饑荒,我們將需要在短短30年里讓食物產量增長70%。其挑戰在於,推動食物產量增長的現有技術——從上世紀50年代以來,這些技術幫助人類跟上了人口增長的步伐——主要是依靠化石燃料。而且,可耕種的土地也由於表土侵蝕等因素在不斷減少。

此外,還有風險直接跟我們食用的食物性質有關。學界普遍認為,人類將需要多吃穀物少吃肉。然而,儘管作物技術的進步已經讓人們培育出可以在貧瘠土地生長的品種,但它們也增加了作物患病的風險。舉例來說,作為全球第三流行的穀物作物,小麥可能被真菌感染消滅——合成病毒的出現只會進一步增加災難爆發的風險。

通常情況下,食物短缺會導致騷亂和政治動蕩。但令人驚訝的是,人們對食物短缺可能造成的社會崩潰並未做過多少研究。

潛在爆發日期:2050年

末日威脅等級:高

9. 真真空以光速吞噬宇宙

一位心懷憂慮的生物化學家向歐盟和美國法庭提出上訴,試圖在大型強子對撞機(LHC)開機前阻止實驗進行。

在末日威脅分析的深奧世界中,技術上存在可能性的末日場景跟科幻作品中的猜想是存在一個交集區的,而粒子加速器事故就是其中一例。

在過去十年間,一直有人猜測,加速器中的粒子碰撞可能會引起某種反應,最終改變所有物質的構成以及物理定律。近來,一些學者提出,我們此前所認為的真空其實還包含有粒子,宇宙中並不存在一種什麼都沒有的「真真空」。

他們認為,真真空有可能以光速吞噬宇宙,這個過程被稱為真空衰變。之所以沒有發生這種衰變,是因為真空處於一種元穩定狀態,而粒子加速器有可能擾亂它,致使其吞噬一切,滅絕我們的世界。

一些物理學家不認同這種理論,他們稱,地球一直在經受宇宙射線的轟擊,而在改變物質方面,這些射線可能擁有比對撞機更強的能量。他們認為,地球仍然存在,所以它必然足夠強大。

博斯特羅姆的博士論文對此進行了探討,即我們自己的立場會扭曲概率計算。他的研究稱,我們的存在並不能用來證明這種衰變的不可能性,因為過去有可能已經有數百萬顆其他地球被吞噬了。

翻譯:何無魚

來源:WIRED

參考來源

喜歡這篇文章嗎?立刻分享出去讓更多人知道~