觀點投書:從「人工智慧公約」原則,反思AI應用對傳統契約法可能的影響

生成式AI在提升生產效率的同時,被顛覆的傳統契約法債權人的歸責義務,值得思考辨明。 (圖/Peshkova via Shutterstock)

自從生成式AI(Generative AI)的出現與運用,全球經濟發展的生產效率,隨著AI技術的快速發展,預計在未來勢必將會呈現指數型成長。AI除了可以自動化處理許多重複性工作外,更可在短時間內完成傳統人力需長時間投入的工作與任務。然而,這樣生產效率的提升,對於傳統契約法上債務履行的影響,將可能衍生新的挑戰。

自OpenAI於2022年推出ChatGPT後,透過自然語言的對話與生成式AI的應用,全球開始颳起一陣AI的炫風熱潮。雖然AI先前出現在人類世界早已達數十年載,但從原本早期學術領域和封閉技術運用的「內在」技術,轉化成「外顯」的具體應用,到可直接被一般民眾使用、觀察,也才因此順勢掀起全世界對於這項技術,其風險隱憂的關注。

從2024年5月歐洲理事會通過的人工智慧公約觀察,其內涵多基於「風險管制」之模式架構而生。值得一提的是,該公約內強調之兩項基本原則:「透明度」與「可問責性」。此兩原則要求AI系統應以可以被理解、反黑箱的方式設計及運作,同時要求對於部署該系統的主體,應對其系統造成的影響負責。若從現有的法治架構反思,不難理解此兩項原則的建立理由。對於「透明度」而言,係為提供相關應用,在未來可能造成紛爭的可解釋需求解方,在可解釋的理由背後,始能依循既有法律及法理思考架構找到造成紛爭之「因果關係」。又「可問責性」自然係基於損益同歸原則之應然,當某個法律主體因為部署AI而獲有利益,自然需同時負擔造成紛爭之法律責任。

若提到AI應用對於全世界經濟發展造成的直接影響,筆者觀察較重要的影響層面,當屬「生產效率」的大幅提升。然在契約關係中,生產效率的提升對於債權人是否必然擁有絕對利益?又當給付瑕疵發生時,如何確認AI在契約履行過程中的法律責任?此定性影響契約法上之歸責原則,亦值得思考、辨明。本文尚提供以下兩點思考方向,期可協助釐清「AI應用造成生產效率提升」中可能造成之法律議題:

一、債務履行過程中應建立「透明度」及「可問責性」之基本原則:

根據歐洲理事會通過之人工智慧公約提出之「透明度」與「可問責性」等兩項核心基本原則,亦當然適用AI於契約履行之應用場景。首先,「透明度」原則要求AI應在可被理解及反黑箱之情形下運作,此為確保契約雙方可以追溯AI執行過程中,對於造成契約紛爭原因的基礎。又「可問責性」原則強調,對於AI造成的後果,必須找得到相對人或權利主體來負責,否則契約約束或負擔規定將毫無意義。

上述兩項原則於契約法應用上確有其重要性,尤當涉及AI應用於履約過程時,契約當事人應根據此兩項原則訂立具有「透明度」及「可問責」的履約條款,以避免當紛爭發生或債務不完全履行時,衍生確認因果關係及責任歸屬之困難。

二、契約一方是否可得而知他方於履約過程中使用AI:

契約關係存續中,一方於履約過程使用AI,於契約未明訂告知義務之情形下,基於誠信原則,使用者一方是否具告知義務?知情權在此將有原則上之重要性,如若否定此告知義務,則可能衍生諸多法律議題,如:事前風險承擔的預期、對於AI技術造成履約期限、履約成果影響的事前規劃等,且渠等原因均將可能改變初始締約意願、履約期限及報酬之約定,非可謂不重要。

簡言之,在AI導致生產效率大幅提升之情境下,未來契約當事人間「事前之知情權」及AI執行的「透明度」與「可問責性」均將成為契約磋商之基本原則。樂觀思考,不論國際或我國未來對於AI監管的走向如何,只要於誠信原則之基礎下,AI應用於契約履行將成為普遍之存在,契約當事人間的契約磋商將圍繞著上述原則發展,並成為契約履行的新常態,更將永久改變傳統契約磋商的基本條件。 (相關報導: 鄧鴻源觀點:對今年諾貝爾物理獎的感想 更多文章

*作者為國立大學在職法律研究所學生,興趣是作為社會觀察家