BBC看OpenAI的「聲音竊盜案」:讓人想起矽谷的無情、傲慢、唯利是圖

雲端情人劇照(圖/DC FILM SCHOOL影製所 提供)

「快速行動,打破陳規」是年輕的馬克·祖克柏(Mark Zuckerberg)在二十年前提出的座右銘。這句話至今依然縈繞在科技界。

這句話象徵著矽谷最糟糕的一面:無情的野心和令人驚訝的傲慢,不計後果、唯利是圖的創新。

本周,當好萊塢女星史嘉蕾喬韓森(Scarlett Johansson)與「開放式人工智慧平台」(OpenAI)發生衝突時,我想起了這句話。喬韓森女士聲稱,她和經紀人都拒絕讓她為「聊天生成預訓練轉換器」(ChatGPT)的新產品配音,但當新產品亮相時,聲音卻非常相似。OpenAI否認這是有意模仿。

這正是創意產業所擔心——人們被模仿並最終被人工智慧(AI)取代的典型例證。

這一切都與昔日那些獨斷專行的矽谷巨頭如出一轍。將尋求寬恕而不是許可作為非正式的商業計劃。

2024年的科技公司非常希望擺脫這種名聲。

而OpenAI並不是從那個模子裏塑造出來的。它最初是一家非營利組織,致力於將任何額外的利潤投入到業務中。

2019年,當該公司成立營利部門時,公司表示其將由非營利部門領導,投資者的回報將有上限。

並非所有人都對這一轉變感到高興——據說這是聯合創始人埃隆·馬斯克(Elon Musk)決定離開的一個重要原因。去年年底,OpenAI首席執行官薩姆·奧特曼(Sam Altman)突然被董事會解僱,其中一種說法是他想進一步偏離最初的使命。但我們無法確定該說法。

不過,即便OpenAI變得更加以利益為導向,它仍必須正視自己的責任。

宛如噩夢

在政策制定領域,幾乎所有人都認為在災難來臨之前,需要制定明確的界限來約束OpenAI這樣的公司。

迄今為止,AI巨頭們基本上都是紙上談兵。在六個月前舉行的全球首屆AI安全峰會上,一群科技公司老闆簽署了一份自願承諾書,承諾創造負責任、安全的產品,最大限度地發揮AI技術的優勢,同時將其風險降至最低。

他們所說的風險宛如噩夢,如同《終結者》和《末日侵襲》的場景一般,AI走向失控並摧毀人類。

上周,一份由30位獨立專家組成的英國政府報告草案得出結論稱,「尚無證據」表明AI可以製造生物武器或實施複雜的網路攻擊。

報告稱,有關人類失去對AI控制的可能性「極具爭議」。

本周早些時候,當峰會再次召開時,「安全」一詞已從會議標題中完全刪除。

該領域的一些人早前就表示,AI工具帶來的更直接威脅是,它們會取代工作或者無法識別膚色。AI倫理專家魯曼·喬杜里(Rumman Chowdhury)博士說,這些是真正的問題。

還有更複雜的問題。該報告稱,目前還沒有可靠的方法來準確理解AI工具為什麼會產生這樣的輸出——甚至它們的開發人員也不確定。而目前已建立的安全測試項目「紅隊演練」(Red Teaming),即評估人員故意讓AI工具行為不當,也沒有最佳實踐指南。 (相關報導: 馬斯克的昨是今非:曾呼籲「對抗中國電動車需要關稅壁壘」,今改口「特斯拉無需關稅保護,拜登讓我好驚訝」 更多文章

在本周由英國和韓國在首爾聯合主辦的後續峰會上,科技公司承諾,如果一款產品沒有達到一定的安全門檻,就會將其擱置——但這些標準要到2025年的下一次峰會才會確定。