【記者汪純怡/採訪報導】定有真相!面對運用AI的假消息、假新聞、假圖片、影片充斥,清華大學王道維教授說,AI科技確實使讀者端難以辨別真偽,應對之道在於提升議題敏感度,對於可能產生重大影響的圖片或影片勿逕行全盤相信;平日多使用AI應用程式,增進對AI運作的認識,有助於提升分辨能力。
總統候選人海報充滿情緒性攻擊對手的字眼;政治人物參加活動合照被張冠李戴,變成出入不良場所;美國女歌手泰勒絲(Taylor Swift)在紐約大學畢業典禮演說,被改造成用中文發表;英國女星艾瑪.華森(Emma Watson)接受訪談時,竟能說流利中文,還帶點老外咬字特色。電視劇主角出狀況,不用找別的演員重拍,只要AI換臉就好⋯⋯
文字型假消息大量傳播一般人難以分辨
網路上各種假消息令人頭昏眼花,依據台灣事實查核中心今年12月中旬觀測到的主要傳言類型,其一是部分政治假訊息捲土重來,此外,還有戲劇情境影片被誤當真實事件,以及天冷心血管保健的偏方療法傳言四起。隨著AI普遍運用,許多假消息更是真假難辨。
國立清華大學物理系教授、人文社會AI應用與發展研究中心副主任王道維受訪時表示,在AI時代之前,假消息、假新聞的現象就已經存在。社會學的論述指出,21世紀是後真相時代,「真相」有多元的表達方式,因為人們未必親身參與某些事件,大多經由轉述得知,當轉述者加入主觀的詮釋,就造成即使是「真相」也存在著觀點的差異。
再加上現代社會價值觀已經破碎,對於誠實、良善、公平沒有一致標準,政治人物及其支持者所強調的事實,與不同立場者所認為的事實,就有所不同。這種價值觀的差別或甚至惡意的變造,在AI出現以前就已經存在,AI出現後只是狀況加劇。
王道維說,以前面對假消息或假新聞,一般人可以藉由提升媒體識讀水準、增加知識等方式,避免被騙,但到AI時代就沒有那麼容易分辨。AI使用在假新聞或假消息上,包括文字描述與照片、影片偽造兩方面;而要辨認文字方面似是而非的假消息,技術上非常困難。
王道維表示,過去個人就可以製造假消息以產生特定效果,為何還要運用AI?最大差別在於大量及快速傳播,例如運用AI可以仿製100個人撰寫文章,從100個不同帳號及管道傳播,讓大眾以為許多人都發表了類似意見。
王道維說,這類大量生成的假消息,單單檢視文章內容是難以分辨的,就算再用AI技術反向檢驗文章,技術上也不太可能,即使是學校老師目前也難以用AI軟體確認學生報告是否來自於AI生成。
唯一判斷方法是看其傳播管道,是在哪個節點產生大量文章,而文章彼此之間有無相似性。但這些資訊並非一般讀者可以接觸到,唯有靠政府與平台業者介入,規範訊息流量並加以管制。
圖片型假消息 靠提升AI素養增加辨別力
至於圖片或影片式假消息,未必需要大量生成。王道維說,比較有可能分辨出來。例如像手指、頭髮等某些細節不夠自然,但現在最好的AI也可以做到完全看不出來變造,幾乎難以辨認。有時在某些無關緊要的議題上,像是商家的食材、菜色照片,一般人並不會注意圖片真假;但當議題較為敏感時,就要比較留心。
王道維說,特別是當某幀圖片成為關鍵圖片,作為對一個人或一個事件的唯一判斷標準時,若沒有其他佐證時,就要特別留心。他強調,這是在AI時代應該要有的素養,就是「有圖不一定有真相」、「有片不一定有真相」。
王道維說,現在的AI技術有機會從色碼、與真實場景比較、修改痕跡檢驗等辨別圖片是否為偽造,但需要耗時去辨別,一般讀者也不容易做到,唯有自己謹慎「是不是只靠這一張照片就能做判斷?」花時間去充實資訊,避免人云亦云。
另外,王道維也建議弟兄姊妹擴張生活經驗,多多使用AI產品,當相關應用程式問世時,就嘗試使用或多去了解、討論,像是ChatGPT、換臉APP等,花時間提升自己對於AI的素養,就會發現AI的特色、限制及優缺點,無須神化或醜化AI,方能提升對假消息或假新聞的判斷能力。