千萬別把5件事告訴ChatGPT!上班族最容易踩雷,誤給個資2步驟自保

避免向ChatGPT透露這5項資訊。(圖/AP)

隨著人工智慧(AI)快速發展,越來越多人習慣向「聊天機器人」傾訴疑難雜症,不過,儘管使用AI帶來極大便利,但專家警告,部分資訊一旦輸入後可能無法掌控其流向,潛藏高度風險。

這5件事千萬別讓AI知道

根據《華爾街日報》報導,史丹佛大學「人本人工智慧研究中心」(HAI)研究員珍妮佛提醒,當你向聊天機器人輸入任何資訊時,「你就失去了對它的掌控權」,這代表資料可能會被系統記錄、分析。

其中,尤其有5種敏感資訊絕對不應與AI分享,若在工作環境中誤用,更可能導致機密外洩、資安風險。

企業內部資料

不少上班族在撰寫簡報、Email時,習慣順手交由AI協助潤飾、發想,但若內容涉及客戶個資、商業機密、未公開策略,等同將這些敏感訊息暴露在無法完全控管的平台上。

即使是企業購買的AI商用版本,也應嚴格遵守內部資訊安全政策,以避免潛在風險。

醫療相關資料

許多人會請AI協助解讀報告、檢測數據,但須注意的是,醫療資訊屬於高度敏感的個人資料,而大多數聊天機器人並不受「醫療隱私法」等相關法規的保護。

若有必要使用ChatGPT解釋醫療檢測結果,應在上傳文件前先進行剪裁或編輯,「只保留檢測結果」的部分。

登入憑證

有些人甚至會希望讓AI協助管理帳號密碼,但實際上,聊天機器人並非密碼保險箱,將敏感資料輸入其中反而容易成為資安漏洞,建議應使用專業的密碼管理工具,才能有效確保帳號、個資安全。

身分認證資料

包括姓名、生日、住址、電話、身分證號碼或護照號碼等,都應避免輸入至AI系統中,儘管,OpenAI聲稱旗下模型會主動過濾這類敏感資訊,但最安全的做法,仍是完全不提供任何可識別個人身分的資訊。

金融帳戶資料

銀行帳號、投資平台資訊或信用卡號碼等,若遭AI「記住」或透過技術被駭客取用,恐將暴露於極高的資產風險中,導致帳戶遭盜刷或財務資料外洩。

誤輸敏感資料怎麼辦?專家揭「2步驟」自保

事實上,OpenAI在官網上明確寫道:「請不要在你的對話中分享任何敏感資訊」,Google也在AI聊天機器人Gemini的頁面警告用戶,避免輸入「你不希望審查員看到的機密資訊、任何數據」。

對此,人工智慧新創公司Anthropic執行長傑森・克林頓指出,若不小心輸入了敏感資料,應盡快「刪除對話記錄」,並開啟多重身份驗證(MFA)以提升帳號安全性。 (相關報導: 「蝦皮正在偷看手機相簿」83萬人超驚慌!1招設定保護個資 更多文章

雖然大多數企業平台會在30天內自動清除對話內容,但專家仍強調,用戶主動刪除資料才是最安全的做法。