阿將伊崮喜瀾觀點 : 數據偏見的黑洞—認知差異如何毀掉科技未來?

如何讓多元語言、文化與世界觀充分展現,將會是AI發展下一階段的挑戰。(圖/ImageFX AI)

前言:預訓練的陷阱

在AI飛速發展的今日,「數據」彷彿成為另類的萬靈丹,這種情況也造成主流文明與傳統知識的資料被大規模蒐集、切割、再餵食給模型。

然而,正如油與水不能強行攪在一處,當不同認知的兩種知識體系直接透過「預訓練」混合時,自然出現包含語意混淆、邏輯衝突與文化挪用等的意外產出。原因便出在傳統知識系統具有高度文化語境、隱喻和轉喻等符號的功能特質,很容易與主流AI模型的向量化、形式化處理方式存在根本衝突(Lewis等,2020)。

導致AI可能產出一種鑲嵌主流科學的理性與原住民靈性的「四不像」知識,卻遺失兩方真正的精神核心。例如,在當今生物多樣性的議題中,非「知識論」型態的傳統知識(規範與禁忌)經常被主流文明學者混淆成一種偏重生態的另類「科學」,就是一種很典型例子,這種粗淺認知甚至也被不少年輕原住民所默認。

當模型胡亂融合,既無法守護原住民神聖觀念,也喪失主流科學的精確判斷而變得「不倫不類」時,將不只是技術性錯誤,更是對人類文明記憶與價值的粗暴踐踏!

許多原住民學者與主流學者都批評,過度「知識論」化傳統生態理解,只會將原住民宇宙觀變得片面化。例如Grim(2001)與Berkes(1999)都強調不能簡化為databank型的知識儲存,而必須聚焦其文化、倫理與口語傳承的意涵。

Cheong等(2021)也警告當大型語言模型可能無法真正理解其社會文化脈絡,此將導致在處理非主流、尤其是在傳統知識體系出現系統性錯誤(Bender等,2021)。

微調的迷宮:觀點差異如何引爆模型災難性失誤?

AI的「微調」常被視為跨文化資料融合的萬靈藥,然而,事實卻絕非如此。原住民認知與主流文明間不只語義不同,背後更暗藏不同「知識」的生成邏輯;AI在微調時必須靠「標註」導入「正確答案」,但要怎樣才算正確呢? 

當前AI開發模式往往無意識地複製殖民時代的知識擷取模式,卻缺乏對應的權力與利益分享機制(Russo等,2023)。一旦標註者根據他所認定的「主流」點,便會強行消音少數文化。

反之,若濫用所謂「文化包容」而無原則性地增添多元觀點,模型又會出現相互矛盾的回應,甚至「自爆」不知所云的立場。更糟糕的是,這種混亂一旦落到醫療、教育或法律等關鍵領域,人命與社會正義都將成為「訓練數據」失誤的犧牲品(Ferryman與Winn,2018)!造成算法系統自視「客觀」,實則掩蓋其內建價值判斷與社會假設的情況,這對於喜歡將「多元文化」或「跨文化」混為一談、卻不知認知差異的人來說尤其危險(Siddique等,2024)。 

監督的幻象:誰來決定什麼是正確答案?

AI監督訓練高度依賴人為標準,然而,「有誰能在文化斷裂之間擔任『絕對標準』的裁判」?主流文明的審查者可能不理解原住民隱含的宇宙論整體觀與語意脈絡;原住民代表又可能被迫在主流話語下,而討好遷就自己。我自己就是一個例子。 (相關報導: 阿將伊崮喜瀾觀點 : 關稅AI人 vs. AI關稅人─中美科技戰的數位棋盤 更多文章

更不可思議的是,現今常見的「客觀標註」方式根本是建築在主流價值的偏見之上,等於把千萬年來的文化差異硬生生碾碎為0與1。