AI假圖片將帶來「真相崩壞」危機? 查核組織傳授破解心法


前些日子,一些不可思議的圖片在社群平台上瘋傳——美國前總統川普被捕、教宗穿著時尚的羽絨外套、特斯拉創辦人馬斯克和通用汽車執行長瑪莉.巴拉(Marry Barra)牽手上街。
事實上,這些網路熱傳的畫面全是由AI生成的假圖片。
Breaking: Elon Musk is now dating GM CEO Mary Barra 🤣 pic.twitter.com/O0eVcy2uPn
— AllYourTech (@blovereviews) March 26, 2023
馬斯克和瑪莉.巴拉牽手上街的照片,證實為AI生成的假圖片。
近來爆紅的DALL-E、MidJourney等AI影像生成軟體,任何人只要輸入文字就能創造出新圖片,操作容易而大受歡迎。雖然目前這些AI生成軟體主要用在「諷刺」和「娛樂」,但它的技術正在高速發展。多位專家學者、公眾人物連署公開信,呼籲所有AI實驗室暫停開發比Chat-GPT4更強大的模型六個月。他們說:「我們應該任由科技將我們的資訊管道塞滿宣傳和謊言嗎?」
AI假圖片大軍已是山雨欲來之勢,專門查證假訊息的記者們該如何是好?人類的資訊傳播管道會不會充斥「宣傳與謊言」?
事實上,川普被捕的照片是荷蘭知名調查報導媒體《啤令貓》(Bellingcat)創辦人艾略特.希金斯(Eliot Higgins)用Midjourney製作的。他之所以製造這些聳動的照片來,為的是警告大眾AI假圖片存在強大的煽動能力。
Making pictures of Trump getting arrested while waiting for Trump's arrest. pic.twitter.com/4D2QQfUpLZ
— Eliot Higgins (@EliotHiggins) March 20, 2023
希金斯刻意用Midjourney人工智慧,製造川普被捕的圖片,意在警告大眾AI假圖片氾濫現象。
希金斯說:「我發布的內容證明了引起人們興趣和偏見的圖像可以迅速熱傳,但事實查核所需的時間卻比轉發還長。」
有多年查核記者經驗、同時任職於智利迪戈波特雷斯大學的新聞系教授薇倫提娜.馬瓦爾(Valentina de Marval)也憂心,儘管現在還可以在一些小細節辨認這些AI假圖片的真偽,但隨著科技高速發展,這些線索很可能在未來某天走入歷史。
「也許幾天或幾個月後,AI就學會把手畫得更逼真,畫好眼睛的輪廓、畫好牙齒和耳朵的細節,讓皮膚不再那麼光滑,讓有瑕疵的皮膚看起來更逼真。」馬瓦爾相信,未來要透過肉眼辨識AI假圖片只會更難。
美國華盛頓大學數據實驗室主任葉文.偉斯特(Jevin West)長期關注假訊息問題。他警告,發生重大事件後社群平台湧入大量假影像將可能是未來的日常,而這些假影像將在社會的關鍵時刻混淆大眾視聽。
「在危機發生時,這些假訊息就像是資訊管道中的雜訊,加深大眾對社會的不信任。」偉斯特說:「你越來越不信任對政府體制,以及你所接收到的資訊。」
儘管許多人擔心AI生成影像帶來的「真相危機」,但牛津網路研究所通訊研究員菲立克斯.西蒙(Felix Simon)卻為這種論點過於杞人憂天。他強調,廣泛傳播不一定代表很多人相信,不需對這些新科技抱持危言聳聽的觀點。
西蒙表示,「圖像」和「真實」的關聯向來沒那麼穩固,「我們所見的AI生成影像只是一個延續,人們會習慣它的存在,並在個人和集體層次上建立防禦機制,到時新聞媒體在查核技術可能會有更多進展,並能查證這一張照片是否如實呈現它所宣稱的內容。」
西蒙指出,新圖像帶來對資訊戰和假新聞的擔憂,早在攝影被引進新聞編輯室就出現了,人們對「深偽影像」的焦慮,亦是歷史悠久。甚至當繪圖軟體「Photoshop」問世時,人們也擔心假圖片會危害社會。
他相信,人們會適應新科技,並和新科技帶來改變的共存。
但事實查核記者關心的,不盡然是這些軟體產生了什麼,而是它們產生的速度。因為新聞組織不僅要查得正確,還要即時把正確資訊傳遞出去。這場以真實打擊虛假的對抗戰,很可能會因為查證工作緩慢而敗下陣來。
和Photoshop或產製深偽影像的軟體不同,DALL-E和Midjourney只要輸入幾個文字,就能在幾秒鐘內產生圖像,再透過社群平台延燒開來,有如一把「數位之火」。更嚴重的是,查核記者們無法掌握它們在封閉的通訊軟體中流傳的狀況。
馬瓦爾認為,查核記者要調整查證方法和節奏,以便趕上這些合成影像的潛在影響力。「在所有新聞編輯室裡,查證方法必須調整和簡化,才能在這些假影像熱傳前擋下它們」。
假訊息議題在2016年美國總統大選後,從歐美國家一路延燒到全世界。但馬瓦爾認為,這個議題不只肇因於新科技,也和新聞業公信力的崩壞有關。「我們永遠不會有足夠的記者,」馬瓦爾說:「不只是新聞專業,政治和學術機構的聲望也在下跌。當民眾越不信任媒體和政府,就會有越多假訊息在網路上流傳。」
對新聞公信力已經受損的媒體來說,假影像將帶來另一波信任危機。根據牛津大學路透新聞研究所《2022年數位新聞報告》,新聞公信力正在下降。在這項全球調查中,只有42%的民眾表示他們「大多時候都相信新聞」。而美國的新聞信任度只有26%,在所有接受調查的國家中敬陪末座。
值得注意的是,比起在媒體上直接看新聞,調查顯示民眾更不相信社群平台、搜尋引擎、通訊軟體上的新聞。此外,很大比例的受訪者也認為,假訊息和平台業者不負責任地蒐集用戶數據,是他們國家的大問題。
為了應對正在醞釀的AI假影像大軍,新聞媒體積極開發科技工具,來強調自家新聞的真實性。
例如英國BBC、加拿大公廣集團CBC、美國《紐約時報》等媒體,和微軟等科技公司共同合作的「溯源計畫(Projetc Origin)」,是透過開發加密驗證等標記,來向讀者證明新聞內容是可信的,當然也包括新聞影像。
但也有人認為,這些研發AI科技的新創公司應該負起責任,例如透過加上浮水印,來讓使用者更容易辨識出一張照片是不是AI產生的。
Adobe公司最近推出的影像生成工具「Firefly」,就在每個AI生成的圖片中納入「內容身分證」,來告訴讀者它是否為AI生成。Adobe信任辦公室主任達那.雷歐(Dana Rao)表示,對抗假訊息並區分何者為真、何者為假,是公司引進此驗證系統的原因之一。
而這些假圖片熱傳的主要平台推特,則是推出新政策,封鎖可能造成欺騙或傷害的「合成、操縱、去脈絡的媒體」。在「川普被逮捕」的AI假圖片底下,和推特合作的事實查核團隊就以註解的方式,說明這張圖片的前後脈絡。
臉書、Instagram母公司Meta對此事則拒絕做出回應。從該公司實際作為來看,臉書和Instagram仍維持既有的查核機制,將查證假圖片的任務交給合作的查核組織。當查核組織做出查證後,臉書會在問題貼文上做出標記,提醒讀者這是假訊息。
為避免假訊息帶來的社會危機,新聞工作者積極推動媒體素養教育、教導民眾事實查核技能,盼能降低AI假訊息的影響力。
《啤令貓》就在教育領域努力耕耘,和多所學校、大學合作開設工作坊,教育學生和老師媒體素養的概念、基本的查證技巧,並告訴他們這些假影像可能帶來的問題。
馬瓦爾也在大學教授事實查核課程。她說,最重要的是看清這些影像的背景脈絡,並質問誰在散播它。一張照片的政治煽動力越強,我們就要越懷疑它的真實性。「無論我們做了多少查證,如果民眾沒有足夠的媒體素養訓練,那都沒有用。」
《德國之聲》和《法新社》事實查核團隊也分享了幾個查證訣竅,教導讀者如何破解AI假圖片。
一、放大照片檢視細節
AI假圖片乍看之下很真實,但放大圖片後,你可能會發現有些細節怪怪的。目前AI還很難描繪出真實細節的輪廓,因此這些AI假圖像的人物,他們的牙齒、髮絲、耳朵可能跟背景融在一起,輪廓不那麼鮮明。而且,正常拍照時會人物的瞳孔會有反光,檢視圖像中人物的瞳孔,如果沒有反光,或是兩隻眼睛的顏色不同,都是判斷AI假圖片的線索。
另外,眼睛的大小不一、手指多了一根,或是手指、耳朵、五官不成比例,手指太長或太短等,都是AI假圖片常見的錯誤。例如下面這張教宗穿羽絨衣的假圖片,畫面中的教宗只有四隻手指。
In the era of deep fake, AI generated images, it is going to be humanly impossible to discern what is fake & real.
— Kumar Manish (@kumarmanish9) March 31, 2023
Pope Francis in Balenciaga deepfake fooled millions. ⬇️ pic.twitter.com/EbZM0LdYED
教宗穿著羽絨衣的假圖片,可以明顯看出AI製作的痕跡。
二、檢視背景
AI假圖片常在生成背景時發生錯誤,當畫中的元素離前方物體越遠,越容易變形或扭曲,因而出現各種錯誤。例如位在背景的人物腳被截一半、背景的路燈出現變形,抑或背景的柱子輪廓,和前方物體的邊緣融在一起。
另一常見錯誤是,真正的照片有明確的對焦點,讓畫面在對焦點前後逐漸模糊,這是AI生成影像做不到的。就如以下這張威爾史密斯的假圖片,照理說它對焦在最前面的威爾史密斯上,後方的人物應該逐漸模糊,但畫面中右後方的人物卻有著不自然的模糊化痕跡,這就是AI生成的錯誤。
3. "Keep my wife's name out of your ... prompts!" pic.twitter.com/yDtIrBAcky
— Barsee 🐶 (@heyBarsee) March 24, 2023
威爾史密斯的假圖片,背景明顯看出AI刻鑿的痕跡。
三、檢視影像中人物的皮膚
很多AI假圖片中的人物,皮膚會過於光滑,但現實中的人皮膚往往會有一些小缺點,有點粗糙、有點皺紋。像以下幾張Midjourney產生的人像,人物皮膚猶如陶瓷般過於光滑,毫無缺失,反而不自然。
AI photos have this weird glossy look to them that I can’t fully explain but I’m getting better at noticing it. https://t.co/oyFAvAJWzk
— ᴍʏ sᴘᴀᴄᴇsʜɪᴘ? ᴛʜɪs ɪs ᴀ ᴅᴏᴅɢᴇ (@BarkyBoogz) March 17, 2023
AI生成的假圖片,人物皮膚、物品紋理常會出現不自然的痕跡。
四、檢查浮水印
有些AI生成軟體會在生成的圖片上加上標記,例如:DALL-E會在所有圖像的右下角自動生成一個色條。看到這些標記,你就可以知道這是AI生成的假圖片。
五、搜尋圖片來源
如果你還是無法確定一張照片是不是真的,請試著找到圖片的出處。檢視圖片發布的前後文,特別是留言,看看有沒有其他人對這張圖片提供更多資訊,或許就有人在下面提到圖片的出處。
你也可以用「Google圖片」等工具來以圖搜圖,試著搜尋這張圖片的來源,或是搜尋網路上有沒有關於這張圖片的更多查證資訊。抑或,你可以搜尋這張圖片描述的事件,例如「川普被逮捕」,找到有公信力的媒體對此事件的報導,從中找尋當時的畫面,來和網路上流傳的問題圖片做比對。
目前為止,這些AI生成的影像在一些小細節上不是那麼逼真。但隨著AI科技日新月異,這些錯誤可能在未來越來越少。《德國之聲》因此建議,在網路上看到來源不明的影像,應該保持懷疑態度,避免分享出去,並以有公信力的媒體作為接收資訊的主要來源,更能讓自己不被假訊息誤導。
參考資料
- Reuters Institute for the Study of Journalism – 〈Will AI-generated images create a new crisis for fact-checkers? Experts are not so sure〉
- FORTUNE – 〈That photo of Trump being tackled by police isn’t what you think it is as the internet enters a new era of AI disinformation〉
- Deutsche Welle – 〈Fact check: How can I spot AI-generated images?〉
- AFP – 〈AI-generated images can fool people. Here are tips to identify them〉
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 人工智慧大躍進,但AI會取代新聞工作者嗎?
- 「2021 調查報導與事實查核工作坊」No. 2/曹嬿恆X李比鄰X劉彥伯|AI、機器人與事實查核:群眾協力與人工智慧
- 假新聞是真的?人工智慧將火上加油!
- 人工智慧在新聞編輯室的應用與道德風險
- 孩童與假訊息的距離 我們該如何防範與因應?
- 「2021 調查報導與事實查核工作坊」No. 6/黃俊儒X陳璽尹|科學與事實查核——破解科學假新聞
- 王泰俐X詹怡宜X陳立人X唐鳳X胡元輝|誰還在乎新聞真實?台灣公民社會因應假訊息的努力以及未來展望
- 假新聞,在過去,也在未來
主編:蔡宏杰