人工智慧生成的圖片充斥著社交媒體。這有時會帶來信息扭曲。如何分辨真假?德國之聲總結了一些相關程序的常見錯誤。
近來不少圖片在網上熱傳,比如:俄羅斯普京看上去似乎被捕了;或者,特斯拉總裁馬斯克和通用汽車女總裁博拉(Mary Barra)手牽手。

這只是眾多人工智慧圖片的兩個例子。甚至有攝影師也曾濫用過這一技術,發表合成的照片。
有些這樣的圖片是為了搞笑。然而,專家說,有時候,人工智慧技術生成的圖片也會帶來危險,比如使人們得到錯誤的信息,或者被用於宣傳。
從未發生的地震
如果涉及到名人,比如普京或者川普,那麼,要澄清真假是很快的。然而,倘若涉及到的並非名人,那就很難很快地阻止以訛傳訛。
比如,德國議會極右翼選項黨的一名議員就在其instagram賬戶上傳播了一幅人工智慧生成的圖片,上面是尖叫的人,以此顯示他反對難民的到來。
人工智慧專家愛德(Henry Ajder)向德國之聲表示,除了以人物為主題的假照片之外,其它種類的人工智慧合成圖片也能帶來信息的扭曲。
有時會有人捏造從未發生過的事件。比如,在Reddit分享的一些圖片據稱顯示的是2001年美加西北部太平洋海岸的一場嚴重地震。
然而,這是一場從未發生過的地震。專家愛德說:「如果你合成一張非人物景觀的照片,那很難被識別出是假的。」
盡管如此,人工智慧合成圖片的工具並非完美,即便不斷完善。截至2023年4月,相關程序包括Midjourney,DALL-E或者DeepAI。德國之聲「事實核查」團隊在此有一些建議,幫助你發現假照片。
1.放大仔細看
搜尋相關照片你能找到的最高清晰度的一張,然後放大來看細節。
2. 找到最早的發圖來源
有時讀一下圖片最早發布的網站上相關的評論留言,你會搜尋到關於這幅圖片的某些信息。
或者,你也可以使用谷歌的圖片反向搜索功能,或者TinEye,Yandex。或許能找到最早的發圖來源。有時候,你也會發現一些有可信度的媒體已經對其中某些圖片進行了事實核查。
3. 關注身體比例
人工智慧生成的圖片時常會出現人體某個部分比例失調的問題。比如,手太小,或者手指太長。或者頭、腳與身體其它部分不匹配。

上面普京看上去好似跪在習近平面前的圖片就是如此。跪下的人的鞋子不合比例的又大又寬;腦袋似乎也太大了。
4. AI的常見錯誤
Midjourney或DALL-E常犯的錯誤是——手。有時畫中人有六根手指,比如普京看上去被捕的圖片中,他左邊的警察就是如此。
In the era of deep fake, AI generated images, it is going to be humanly impossible to discern what is fake & real.Pope Francis in Balenciaga deepfake fooled millions. pic.twitter.com/EbZM0LdYED
— Kumar Manish (@kumarmanish9) March 31, 2023
又比如教宗方濟各的這兩張照片,你會看到右邊的這幅他似乎只有四根手指?而左邊的照片他的手指好像有點略長。兩張照片都是假的。
還有些時候,人工智慧合成的圖片中,人物有太多顆牙齒,或者眼鏡的形狀被扭曲,或者耳朵的形狀極其獨特——比如習近平與普京的那張被合成的圖片。 (相關報導: 專訪泰國學者華冠咸》「等距外交」是泰國傳統路線 這原因讓中泰鐵路進展緩慢 | 更多文章 )
此外,像Random Face Generator這樣的程序,能夠在短短數秒之內,合成出並不真實存在的人物肖像。即便看上去可以以假亂真,仍然值得去詳加審視耳朵、眼鏡、頭發、眼鏡、耳環的形狀是否極不自然,因為這是程序常犯的錯誤。