台灣人工智慧實驗室
台灣AI實驗室發布歐洲議會改選追蹤報告,杜奕瑾:資訊操弄者策略性幫助極右派
擁有27個成員國的歐盟,境內通用語言超過20種,歐盟執委會負責因應外來勢力資訊操弄的研究人員曾告訴《中央社》記者,語言障礙是歐盟面對不實訊息操作的天然屏障,即便能透過AI翻譯成多種語言,但非常容易被識破。杜奕瑾則擔心歐盟過於自信,因為一般民眾的數位素養還不算普遍,加上類似言論大量在不同社群媒體帳號出現「洗腦」,即便內容有破綻的訊息操作還是能發揮作用。
散布假消息使民眾產生認知失調,幕後藏鏡人可能是境外勢力網軍
台灣人工智慧實驗室根據總統大選期間的網路訊息操作分析報告,指出協同帳號試圖透過煽動語言挑起雙方支持者對立——其幕後藏鏡人有可能就是境外勢力網軍。「我們如果不去注意言論操作的問題,反而有可能會影響到言論自由,也沒有人敢在網路上說話。」
AI及深偽影音威脅激增,微軟研究院專家示警台灣慎防北京「垃圾偽軍」
戴普及奈斯提到,在台灣,只有一個主要的事實查核和錯假訊息研究組織在TikTok有帳號。儘管這與台灣擔憂TikTok與中國的連結有關,不在TikTok上活動也意味「棄守前線」、放棄一個潛在力量不容小覷的工具。文章指出,台灣政府已作出結論,台灣缺乏全面禁止TikTok的法律依據,這意味台灣有必要找到更好的監測TikTok的工具。
選舉風向往哪吹?境外勢力操弄認知作戰,Taiwan AI Labs帶你一窺協同帳號運作手法
台灣人工智慧實驗室發布「2024年台灣總統大選期間網路訊息操作分析報告」,透過大型語言模型及多項人工智慧模型,整理出本次選舉期間,生成式AI對台灣選舉所造成的影響及威脅,並藉由Infodemic平台,觀察台灣主要社群網絡,並訓練台灣本土的語言模型來理解訊息,並分辨出來自中國等地不同語言之用法,藉此分辨境外勢力。
以巴衝突暗藏認知戰訊息,杜奕瑾:4類帳號刻意帶風向,用AI助民眾了解認知操作
杜奕瑾以觀察到的臉書協同帳號群為例說,「養帳號」也有學問,常看到帳號分批操作的現象,以免被一次殲滅。杜奕瑾指出,許多認知操作是為了「誤導」,很難說全然是假消息,目的是要操作對某件事情的嫌惡或喜歡,例如對以巴戰衝突的認知操作,會選擇性放大和報導以色列轟炸巴勒斯坦的畫面,透過提供不對稱消息,讓民眾對以色列產生反感或憤怒。
陳珊妮新單曲由AI生成擬真歌聲,杜奕瑾:台灣應該領先全世界,打造生成式藝術創作
陳珊妮說,訓練AI歌手,很像真人在配唱的感覺,需要一些比較高階的剪輯和配唱技術。這次與台灣人工智慧實驗室工程師一起工作,聽到這麼擬真的歌聲還有影像,自己感覺「的確會抖一下」,也會思考要貢獻出什麼不一樣的東西,以及創作者與歌手的價值在哪裡,對自己思考音樂創作有蠻大幫助。
【專訪】杜奕瑾:假訊息認知作戰氾濫,可從操作歷程找端倪
雖然台灣有「事實查核中心」查證消息真偽,但以人力查核為主,速度較慢,杜奕瑾形容是「落後指標」,因為假訊息往往從社群媒體試水溫,再透過媒體報導放大,等到事實查核結果出來,假訊息早已經傳遞到下一個戰場。