張瑞雄觀點:人工智慧的末日預言與真實挑戰

筆者認為,AI問題關鍵不在機器會否叛變,而在人類如何使用。若缺乏理解與監管,AI將強化權力失衡與認知偏誤,損害社會信任。當務之急是提升AI素養、落實監督、建立全球治理機制。(AP)

當「AI教父」Geoffrey Hinton公開警告人類未來三十年內可能面臨10%到20%的滅絕機率時,這不再是科幻小說的情節,而是一場攸關人類未來走向的嚴肅對話。他與一些學者接連發聲,警告AI的失控風險、呼籲建立如同原子彈時期的風險評估機制,已讓「AI是否會毀滅人類」從邊緣議題推向全球公共政策的核心。

但這場論辯其實存在一個結構性錯位,問題或許不在於AI是否會「毀滅世界」,而是我們是否能在面對這股技術浪潮時,避免因無知、濫用與權力失衡而「自我毀滅」。

AI技術的發展速度確實遠超預期,從AlphaGo打敗世界棋王,到ChatGPT展現出跨領域的語言理解與生成能力,人工智慧在不到十年的時間中從「專業工具」演變為社會變革的主導力量。這種突飛猛進的能力演化,加上企業獲利與國家競逐的驅動,確實存在「技術超速而治理滯後」的風險。

原子彈試爆前有對「點燃大氣層」機率的計算,以避免危險的情況。AI企業也應對其產品進行類似的風險評估,並形成業界共識,才能催生全球性安全協議。因為AI風險並非單一國家能應對,而是需要全球合作的跨國挑戰。不過當前最迫切的危機不在於AI「起義」或「自我演化」,而是人類社會對AI的認知失衡與濫用現象。AI真正的威脅不是來自於機器的思考,而是人類不思考。有兩個危險傾向,一是將AI誤認為有自由意志,二是盲目相信機器產出的資訊比人類判斷更準確。這些迷思若不被釐清,將導致誤用AI,並強化社會中的錯誤決策、認知偏誤與操控風險。

舉例來說,當AI生成假新聞、偽造影片或操作社群媒體時,若用戶缺乏基本的AI素養與媒體識讀能力,就容易被誤導、甚至淪為極權或財團操縱的工具。數據顯示,高達40%的人無法辨識AI生成與真人拍攝的圖片,60%的用戶容易受AI詐騙訊息欺騙。這些實際發生的社會問題,比抽象的AI叛變劇情,更迫切地侵蝕我們的民主制度與社會信任。

更進一步來說,AI技術本身並不具備意識、意圖或道德判斷,它只是一種強大但中性的工具。因此我們真正應關注的,是誰在掌控AI、如何使用AI,以及這些使用是否受到社會規範、法律與倫理的有效制衡。

以目前的發展來看,生成式AI在內容生產、數據分析與自動化應用等領域已快速滲透,但其生成結果經常包含錯誤、偏見或偽造資訊。若缺乏人類專家的監督與審查,這些技術容易在法律、金融、醫療等關鍵領域造成誤導或損害。最著名的案例莫過於一位美國律師引用ChatGPT虛構的判例,導致被法院糾正與制裁,反映出人類若對AI過度依賴,反而會削弱原有的專業能力與判斷責任。當然,AI的正面潛力仍不容忽視。在藥物研發、建築設計與客服流程等領域,AI已展現出顯著的效率提升與創新能力。例如使用AI協助開發新藥,使藥品從研發到臨床試驗的時間縮短一半以上,成本也僅為傳統方法的十分之一。

些案例顯示,若人類善用AI的計算與模擬優勢,並維持必要的人類監督與倫理架構,AI可以成為加速人類進步的力量。AI是否會導致人類滅絕,或許並非現在應過度焦慮的問題。當前AI即便在某些領域已達超人水準(如AlphaFold破解蛋白質結構),但在綜合智能與自我學習方面仍屬「初階」。所謂「超級智慧」尚未出現,我們仍有時間與空間打造更穩健的治理機制。

但這不代表我們可以鬆懈,眼前的挑戰不再是AI會否毀滅世界,而是「誰」會利用AI來改變世界。我們應將重點放在提高AI素養、落實透明監督、建立全球治理框架,以及縮短科技菁英與大眾之間的知識鴻溝。唯有如此,我們才能避免讓AI成為「少數人控制多數人」的權力工具,轉而促成真正「以人為本」的智慧社會。 (相關報導: 張瑞雄觀點:當AI學會說謊 更多文章

*作者為台北商業大學前校長/叡揚資訊顧問