
運用人工智慧(AI)進行的詐騙,估計每年讓消費者和企業造成數百億美元的損失。社會大眾如何才能學到分辨真偽,專家提供幾點要訣。
灣區NBC電視台報導,你認為自己能分辨真人和人工智慧生成的複製人(AI-generated clone)嗎?雖然多數人認為自己可以,但最新的研究卻表明你可能分辨不出來。
人工智慧不僅模糊了真假之間的界限,在某些情況下,它甚至徹底抹去了這些界限,導致許多毫無防備的消費者和企業因人工智慧相關的詐欺行為而蒙受損失。
一家總部位於舊金山的創投公司的負責人庫馬爾(Samir Kumar)說:「科技本身並無好壞之分,關鍵在於人類如何使用它,任何時候,當你讓一項能力普及化,讓更多人擁有強大的技術工具時,就存在被濫用甚至被武器化的風險。」
只要點擊幾下滑鼠,人工智慧就能在幾秒鐘內生成極其逼真的影片和音訊。這些所謂的「深度偽造」(deepfakes)技術可以模仿名人、政客、親友,以及你能想到的幾乎任何人物。
庫馬爾說:「如果你不道德,想做壞事,試圖損害他人的名譽和經濟利益,那麼你現在擁有了更強大的工具。」儘管人工智慧視訊技術在過去幾個月裡取得了爆炸式發展,但專家警告說,人工智慧音訊技術可能成為製造虛假資訊、欺騙和欺詐的更普遍工具。
與音訊相比,視訊本身就包含更多可供仔細審查的元素。突然的畫面扭曲、尷尬的臉部表情,甚至是錯置的身體部位,都常常透露出你看到的畫面是由人工智慧產生的。此外,大多數人工智慧生成的影片都在社群媒體上傳播,因此心存疑慮的用戶可以重播那些看起來有些不對勁的片段,或者瀏覽評論,看看其他人是否也指出了影片的造假之處。
「你可以獲得大量信息來判斷,這是真的嗎?還是被篡改過的?」柏克萊加大資訊學院專門研究深度偽造技術的巴林頓(Sarah Barrington)說:「音頻則不具備這種優勢。」因此巴林頓表示,隨便接聽一通不明電話,就可能讓你身處險境。

柏克萊加大資訊學院博士生巴林頓表示,隨便接聽一通不明電話就可能讓你身處險境。(取材自ischool.berkeley.edu)
後參與評論
暫無評論