張瑞雄觀點:AI發展是否會如原子彈般毀滅人類?

AI可能被用於自主武器系統,成為新一代的毀滅性工具,增加全球衝突的風險。(AI生成圖片)

自從AI(人工智慧)技術快速發展以來,關於其未來影響的討論便從未停止。有人認為AI將成為促進人類進步的重要力量,但也有許多聲音擔憂,若AI的發展缺乏節制,是否可能帶來毀滅性的後果,如同上世紀原子彈的誕生一樣。

1942年,美國啟動了歷史上著名的曼哈頓計畫,其目標是研發世界上第一顆原子彈,以在納粹德國之前掌握這項具決定性影響的技術。該計畫最終在1945年成功研發出原子彈,並在廣島與長崎投下兩顆原子彈,造成約11萬至21萬人死亡。雖然這兩顆炸彈結束了第二次世界大戰,但也揭開了冷戰時期核武競賽的序幕,全球開始籠罩在核戰爭的陰影下。

原子彈的誕生為人類帶來一個重要的教訓:科學技術的突破可以為人類帶來福祉,但若無節制地發展或缺乏適當的治理,則可能導致災難性的後果。當年許多參與曼哈頓計畫的科學家也對原子彈的使用表達了深切的反思,AI的發展是否也會步上相同的後塵?

AI技術在近年來取得突破性進展,從大型語言模型到自駕車、醫療診斷等各個領域皆有卓越表現。但這種快速發展也引發了多方面的擔憂,例如有些專家擔心,一旦AI發展出超越人類智慧的能力,可能會採取不符合人類利益的行動,甚至成為毀滅人類的力量。如同原子彈最初是為了軍事目的而開發,AI也可能被用於自主武器系統,成為新一代的毀滅性工具,增加全球衝突的風險。

還有AI在缺乏監管的情況下,可能會放大社會偏見,帶來嚴重的倫理問題。例如,決策型AI可能因資料偏誤而造成不公平的結果。AI的普及也可能會造成大量工作機會流失,加劇社會不平等,引發經濟和社會的不穩定。

不過就如同當年的原子彈研發是因為擔心納粹德國先取得優勢,如今AI的競賽同樣無法停止。很多人認為若不全力發展,可能會落後於其他國家,甚至受制於他人。所以應該先專注於技術進步,至於潛在的風險則可以在之後透過其他手段進行控制。

然而,這種「先發展、後治理」的策略,正是原子彈帶給人類的危險教訓之一。原子彈的誕生雖然終結了戰爭,但代價是成千上萬的生命,以及隨後幾十年來的核戰恐懼。AI若無限制地發展,後果可能同樣不堪設想。所以人類應從原子彈的歷史中吸取教訓,對AI進行適當的節制與治理。

AI的發展確實有可能成為人類歷史上最具突破性的科技進展,但若缺乏節制,後果可能同樣災難性。原子彈的歷史提醒我們,科技的力量無可限量,但也必須伴隨責任與治理。

人類固然不應因害怕AI的毀滅性風險而停滯不前,但更不應為了追求技術突破而忽視其中的危機。唯有在全球合作下,制定清晰的規範與倫理框架,才能確保AI技術的發展為全人類帶來福祉,而不是重演原子彈的歷史悲劇。 (相關報導: 這平台被AI詐騙入侵了!「全球擁18億用戶」陷紅色警報,恐怖手法詳解公開 更多文章

*作者為台北商業大學前校長、叡揚資訊顧問