位於舊金山的非營利組織「人工智慧安全中心」(Center for AI Safety)30日發布一份聯合聲明,超過350科技界高管和人工智慧科學家警告:人工智慧技術對人類帶來的滅絕風險,堪比疫情和核戰,與其他同等規模的風險一樣,減輕AI帶來的滅絕風險應成為全球優先事項。
這份聲明的簽署者包括ChatGPT的公司OpenAI的執行長阿特曼(Sam Altman)與技術長穆拉蒂(Mira Murati)、被稱為「人工智慧教父」的圖靈獎得主辛頓(Geoffrey Hinton)與班吉歐(Yoshua Bengio)、微軟技術長凱文・史考特(Kevin Scott)、Google的AI主管易卜拉欣(Lila Ibrahim)與哈薩比斯(Demis Hassabis)、以及Skype和Quora的負責人等等。

《華爾街日報》表示,科技行業雖然對人工智慧(artificial intelligence,簡稱AI)的進展感到興奮,開發AI技術的半導體公司輝達(Nvidia)30日成為首家估值達到1兆美元的晶片製造商,然而對於這項技術可能失控的擔憂也正在與日俱增,許多專家都呼籲應當對AI加強監管。位於波士頓的研究機構「生命未來研究所」(Future of Life Institute)今年3月22日也曾發布由專家學者聯署的公開信(連署人數目前已達31810人),呼籲所有人工智慧實驗室立即暫停比GPT-4更強大的AI訓練—不過以目前的情況看來,這封公開信與相關連署顯然沒有發揮效果。
包括特斯拉創辦人馬斯克(Elon Musk)、以色列知名學者哈拉瑞(Yuval Noah Harari)、圖靈獎得主班吉歐(Yoshua Bengio)、前進黨主席楊安澤(Andrew Yang)、蘋果聯合創始人瓦茲尼亞克(Steve Wozniak)等人今年3月連署的公開信稱:能夠與人類競爭智慧的AI系統「可能對社會和全人類構成嚴重風險」,「高級AI可能代表地球生命史上的深刻變化,理應投注相應的關懷和資源進行規劃和管理。遺憾的是,這一點並未發生,而且最近幾個月全球的人工智慧實驗室已經陷入一場失控的競賽」。

《紐約時報》指出,「人工智慧安全中心」的聯合聲明發表之際,人們越來越擔心人工智慧的潛在危害。所謂的大型語言模型(人工智能的其中一個類型)的最新進展—ChatGPT與其他聊天機器人的各種應用—讓許多人擔憂AI可能會取代數百萬白領的工作,或者被廣泛用於傳播錯誤消息。這兩次大規模連署的科學家與工程師們相信,如果再不對AI的進展進行監管與限制,正處於軍備競賽的人工智慧可能很快就會變得「過於強大」,甚至傷害人類社會。 (相關報導: 南海上空驚險過招:美軍指控「解放軍殲-16挑釁攔截美方偵察機」 | 更多文章 )
根據《紐約時報》報導,包括OpenAI執行長阿特曼(Sam Altman)與Google的哈薩比斯(Demis Hassabis)等專家日前與拜登及賀錦麗(Kamala Harris)當面討論人工智慧問題。阿特曼5月中旬在參議院委員會就人工智慧的潛力及其風險作證時,宣稱「政府的監管干預對於減輕日益強大的模型帶來的風險至關重要」。不過當阿特曼被問及「人工智慧發展最大噩夢是什麼」,阿特曼則說「人工智慧將對就業產生重大影響,但很難預測這種影響到底是什麼」,但他也對參議員們表示:「我認為AI如果出了問題,可能將大錯特錯」、(因此)「我們希望與政府合作,防止這種情況發生」。
