在現代科學之父伽利略(Galileo Galilei)逝世300年忌日降生的物理學家霍金(Stephen Hawking),家屬證實他已於2018年3月14日離開人世,這一天恰好也是愛因斯坦生日。有外媒戲稱「霍金終於可以跟愛因斯坦、牛頓一起打牌了」,不過這位物理學超級明星並非只會鑽研極度抽象艱澀的理論物理,他對於人類社會的永續發展也同樣關注,屢屢提醒「人類應該移民外星」、「多加提防人工智慧」,都是霍金留給世人的遺願與警鐘。
#StephenHawking #RIPStephenHawking"His work will live on even after his death " pic.twitter.com/LkjQ36EIgR
— Ahsan khan (@Ahsankh32) 2018年3月14日
霍金的物理學貢獻恐怕沒有幾個門外漢能搞懂,包括他與羅傑‧潘洛斯(Sir Roger Penrose)共同合作提出在廣義相對論框架內的潘洛斯–霍金奇性定理,以及關於黑洞會發射輻射的理論性預測(霍金輻射)等等。不過他在1988年發表的《時間簡史:從大爆炸到黑洞》(A Brief History of Time: from the Big Bang to Black Holes)倒是非常暢銷,被譯成40多種文字、發行超過2500多萬冊。
アメリカの大学に入って一番はじめに読んだペーパーバックがホーキング博士の本だった。面白くって辞書使わずにべらべらめくって読んだなあ。A Brief History of Time: From the Big Bang to Black Holes https://t.co/PKIrZzQ5cu… #Amazon pic.twitter.com/ltN2Prk1cb
— suzume_chunpi (@suzume_chunpi) 2018年3月14日
在充滿數學與公式的理論物理之外,霍金更持續對人類命運屢屢提出建言。這部分對一般人來說比較好理解、也更為切身。霍金擔心整個人類社會可能走向盡頭,而他認為可能讓人類滅絕的兩個重要原因都跟人類自己有關:一個人口無限制的成長,一個是人工智慧無節制的發展。
Stephen Hawking didn't let death stop him from achieving what most of us can only dream of. He defied death for 55 years.Don't let Nigeria stop you from reaching your full potentials. Nigeria is designed to stifle and kill dreams. Defy it.Good morning. Have a fulfilling day. pic.twitter.com/QKndV18TCA
— Kelvin Odanz (@KelvinOdanz) 2018年3月14日
趕快移民太空!
霍金警告「人口爆炸」的可怕,如果人類再不移民外星,大約西元2600年地球人口就會大爆滿,屆時人類的生存也會岌岌可危。不過他認為人類可以避免這條死路,方法就是到其他星球去尋求更寬廣的天地。霍金也對川普退出《巴黎協定》非常不滿,去年7月時曾說美國此舉會讓地球變的跟金星一樣:地表溫度高達攝氏250度,還下著硫酸雨。
Stephen Hawking says Donald Trump "is a demagogue" https://t.co/H8WmFvfJP0 via @tim_hume pic.twitter.com/6qq327x4pz
— CNN Politics (@CNNPolitics) 2016年6月1日
2017年7月,霍金也痛批美國總統特朗普退出氣候問題《巴黎協定》的決定,可能將導致不可逆轉的氣候變化,警告稱此舉或將讓地球變成一個金星一樣的溫室星球。霍金在接受BBC專訪時表示,我們正在接近全球變暖不可逆轉的臨界點,特朗普的決定可能將地球推過這個臨界點,變成像金星一樣的星球,溫度高達250度,並且下著硫酸雨。
霍金2011年將地球的「大限」設在兩百年後,只有移民外星才能解套。在2017年的BBC紀錄片《遠征新地球》(Expedition New Earth)中,霍金把末日時間點再往前提,強調人類若想要永續生存,未來一百年就要離開地球,在太空裡尋求新家。不過移民太空聽來還是非常遙遠,但霍金擔心的另一件事大家可能更為有感,那就是人工智慧對人類的威脅。他認為,人工智慧「完成」之日,就是人類滅亡之時。
提防人工智慧!
霍金2017年3月接受英國《泰晤士報》採訪,警告「人類需要控制以人工智慧為代表的新興科技,防止它們未來可能對人類生存帶來毀滅性威脅。」霍金強調人工智慧本身也適用達爾文的進化論邏輯,未來甚至可能對人類帶侵略的威脅,我們必須利用邏輯和理性控制這種威脅。
他2014年則對BBC表示,現有的人工智慧發展已經有可觀的進步,且實用性相當高,但他害怕的是未來可能會研發出一些和人類相似、甚至超越人類的用途;如此一來,「他」可能會脫離我們這些發明者,再以驚人的速度自我改良、設計。霍金說:「人類受限於生物演化速度,無法發展達到極致,而且會被超越。」
霍金2016年在劍橋大學「萊弗休姆的未來智能中心」(LCFI)發表演說時,雖然肯定「創造人工智慧是我們文明史上最重要的事件」,但也批評人工智慧的發展「沒有節制」,就算可能為人類帶來消除貧困與疾病等巨大福利,但是同樣也可能帶來危險,像是性能優異的自主武器系統,甚至成為少數人壓迫多數人的有力工具。
RIP Stephen Hawking. Never forget that one of his last acts was warning us about the dangers of AI https://t.co/rw7Hwaplid
— Matt Medved (@mattmedved) 2018年3月14日
霍金2015年也跟一千多名物理學家連署,警告不能讓科技企業無節制地開發人工智慧與殺手機器人。當時霍金的警告更為露骨,他說人工智慧是人類所能犯下「最糟糕的錯誤」,他擔心這些自主武器系統被獨裁者與恐怖分子掌控,人工智慧的軍備競賽更是人類災難,違反了造福社會的初衷。
「宇宙若非你摯愛之人的家園,這一切其實微不足道」
霍金關心人類的末日與永續福祉,不過他2014年也曾公開支持英國的安樂死法案(Assisted Dying Bill),認為應該支持人類個體求死的權利。霍金說,他在1985年接受氣管造口手術之後,曾試過「閉氣自殺」,但因身體想呼吸的反射太過強烈,最後並沒有成功,自殺未遂的霍金30年後也才能支持安樂死法案。
霍金後來還有沒有試過求死沒人知道,但他2014年曾說,他一輩子最大的希望,是能在外太空死去。但綜觀他對人類末日的關切,對個體求死意願的尊重,其實霍金真正想說的可能是「愛」。根據他的子女露西(Lucy)、羅伯特(Robert)和提姆(Tim)14日宣布父親死訊時的聲明,霍金如是說:「如果宇宙不是你摯愛之人的家園,宇宙也就微不足道了。」