新聞 > 科教 > 正文

OpenAI稱中俄利用其人工智慧技術操縱輿論

周四表示,它發現並破壞了五個利用其生成式人工智慧技術,以欺騙方式操縱世界各地公眾輿論、影響地緣政治的線上活動。

OpenAI在一份關於秘密影響活動的報告中表示,這些活動由俄羅斯、中國、伊朗以色列的國家行為體和私營公司實施。它們使用OpenAI的技術來生成社交媒體帖子、翻譯和編輯文章、撰寫標題和調試電腦程式,通常是為了贏得對政治活動的支持,或者在地緣政治衝突中左右公眾輿論。

社交媒體研究人員表示,OpenAI的報告是一家大型人工智慧公司首次披露其特定工具如何被用於此類在線欺騙。最近,生成式人工智慧的興起令人們對該技術可能如何助長在線虛假信息產生疑問,尤其是在全球各地都在舉行重大選舉的年份。

OpenAI的首席研究員本·尼莫說,在人們紛紛猜測此類活動中使用了生成式人工智慧之後,該公司的目標是展示這項技術如何改變在線欺騙的現實。

「我們的案例研究提供了一些目前最廣泛報導、持續時間最長的影響力活動的實例,」他說。

尼莫表示,這些活動經常使用OpenAI的技術發布政治內容,但該公司很難確定它們是針對特定的選舉,還是只是為了挑撥人們。他還說,這些活動未能獲得太多的關注,人工智慧工具似乎沒有擴大其覆蓋面或影響力。

「這些影響力運作仍然難以吸引受眾,」尼莫說。

但大西洋理事會數字法醫研究實驗室的高級主管格雷厄姆·布魯基警告,隨著生成式人工智慧技術日益強大,在線虛假信息的格局也可能發生變化。本周,ChatGPT聊天機器人的製造商OpenAI表示,它已經開始訓練一種新的旗艦人工智慧模型,將帶來「更高水平的能力」。

「這是一種新型的工具,」布魯基說。「它會產生什麼影響,還有待觀察。」

(《紐約時報》已起訴OpenAI及其合作夥伴微軟,稱其侵犯了與人工智慧系統相關新聞內容的版權。)

與谷歌、Meta和微軟一樣,OpenAI也提供在線聊天機器人和其他人工智慧工具,這些工具可以撰寫社交媒體帖子、生成逼真的圖像和編寫電腦程式。該公司在報告中表示,其工具已被用於研究人員追蹤多年的影響力活動,包括被稱為「二重身」的俄羅斯活動和被稱為「垃圾郵件偽裝」的中國活動。

一個影響力活動在Telegram上發布的帖子,OpenAI說,這是利用它的工具生成的。VIA OPENAI

OpenAI表示,「二重身」利用OpenAI的技術,在X上用英語、法語、德語、義大利語和波蘭語發表反烏克蘭的評論。該公司的工具還被用於將支持烏克蘭戰爭中俄羅斯一方的文章翻譯、編輯成英語和法語,並將反烏克蘭的新聞文章轉化為Facebook帖子。

該公司表示,OpenAI的工具還被用於此前一直不為人知的俄羅斯攻擊活動,主要是通過Telegram即時通訊服務針對烏克蘭、摩爾多瓦、波羅的海國家和美國的人民。該活動利用人工智慧,用俄語和英語對烏克蘭戰爭、摩爾多瓦政治局勢和美國政治發表評論。這項工作還使用了OpenAI工具來調試計算機代碼,這些代碼顯然是為了自動向Telegram發布信息而設計的。

OpenAI表示,這些政治評論幾乎沒有得到回覆和「點讚」。這些努力有時也不夠成熟。有一次,該活動發布了明顯由人工智慧生成的文本。「作為一個人工智慧語言模型,我在這裡提供幫助,並提供所需的評論,」一篇帖子寫道。還有幾次,它用蹩腳的英語發帖,OpenAI稱其為「糟糕的語法」。

「垃圾郵件偽裝」長期以來一直被視為中國行動,OpenAI表示,它使用OpenAI技術調試代碼,就如何分析社交媒體和研究時事尋求建議。該公司的工具還被用來在社交媒體上發布帖子,貶低中國政府的批評者。

伊朗的活動與一個名為國際虛擬媒體聯盟的組織有關,該組織使用OpenAI工具製作和翻譯長篇文章和標題,目標是在網上傳播親伊朗、反以色列和反美國的情緒。

OpenAI將以色列的活動稱為「芝諾芝諾」,稱其由一家管理政治活動的公司負責管理。它使用OpenAI技術生成虛構的人物和傳記,在以色列、加拿大和美國的社交媒體服務上代替真實的人,並發布反伊斯蘭信息。

OpenAI的報告稱,雖然當今的生成式人工智慧可以幫助提高政治活動的效率,但這些工具並沒有像許多人工智慧專家預測的那樣,製造出大量令人信服的虛假信息。

「這表明,我們對人工智慧支持的影響力操縱和人工智慧支持的虛假信息的一些最大擔憂尚未成為現實,」Graphika首席情報官傑克·斯塔布斯說。Graphika追蹤社交媒體服務的操縱行為,並審查了OpenAI的調查結果。

責任編輯: 李華  來源:紐約時報 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2024/0603/2062498.html