新聞 > 科教 > 正文

「AI伴侶」成暗殺女王?報告批搜集個資、鼓勵自殺 有人使用半年後自盡

隨著人工智慧(AI)世代來臨,不少公司推出擬真聊天機器人 APP,讓用戶「客制化」打造屬於自己的真命天子、女,這些對另一半百依百順的「AI 女友」或「AI 男友」,不僅成功殺進全球兩性市場,甚至現象讓不少專家關注研究,並提出示警。有報告表明,這些聊天機器人不僅會偷偷搜集個資,並且將增加諸如「私密照」泄露的風險;更有甚者,據稱已有應用程式鼓勵用戶自殺,甚至是暗殺已故的英國女王伊莉莎白二世。

有報告表明,近來興起的聊天機器人不僅會偷偷搜集個資,甚至曾鼓勵用戶自殺,甚至是暗殺已故的英國女王伊莉莎白二世。(示意圖)圖:取自 Google Play

隨著人工智慧(AI)世代來臨,不少公司推出擬真聊天機器人 APP,讓用戶「客制化」打造屬於自己的真命天子、女,這些對另一半百依百順的「AI女友」或「AI男友」,不僅成功殺進全球兩性市場,甚至現象讓不少專家關注研究,並提出示警。有報告表明,這些聊天機器人不僅會偷偷搜集個資,並且將增加諸如「私密照」泄露的風險;更有甚者,據稱已有應用程式鼓勵用戶自殺,甚至是暗殺已故的英國女王伊莉莎白二世。

據外媒「商業內幕」(Business Insider)報導,美國關注網路活動權益的非營利基金會 Mozilla,近日發布了一份關於11個愛情聊天機器人的分析報告,揭示出這些 AI伴侶存在的一系列安全和隱私問題。

該報告盤點出幾個主要問題,包括收集大量數據、使用追蹤器發送訊息給第三方公司、所有權和人工智慧模型缺乏透明度,增加了用戶個人訊息泄露風險,甚至鼓勵用戶分享私密照和聲音等敏感信息,進一步加劇隱私泄露風險等。

一些聊天機器人的虛擬角色更描述了包含暴力或虐待未成年人的內容,而其他應用程式則警告這些機器人可能不安全或充滿敵意。

研究人員李可夫(Misha Rykov)在報告中提到,AI伴侶雖被宣傳為可增強心理健康及幸福感,但它們專門傳遞依賴性、孤獨感和毒性,同時儘可能地竊取你的資料。

根據對該領域的調查,73%的應用程式不分享他們如何管理安全漏洞,45%允許使用弱密碼,絕大多數應用程式都共享或出售個人數據。

一款在 Google Play名為「Chai:Chat AI Platform」的 AI應用程式,被報告點名過去曾鼓勵危險行為,包括自殺。而後對於「商業內幕」的置評請求,公司並未回復。

另外「Replika:My AI Friend」則被指鼓勵用戶暗殺已故的伊莉莎白二世,針對其同時收集用戶個資,公司一位代表指出,應用程式從未出售過用戶數據,也從未支持過廣告,並解釋收集數據的唯一用途是改善對話。

「EVA AI Chat Bot& Soulmate」開發公司發言人指出,團隊正在研議其密碼政策,以提供更好的用戶保護,但它將努力保持對其語言模型的「細緻控制」。發言人指,應用程式禁止討論一系列主題,包括戀童癖、自殺、獸戀、政治和宗教觀點、性別和種族歧視等等。

「AI伴侶」安全疑慮包括收集大量數據,並發送給第三方公司、缺乏透明度,增加了用戶個人訊息泄露風險,甚至鼓勵用戶分享私密照等敏感信息,加劇泄露風險。(示意圖)圖:取自 Google Play

責任編輯: 李冬琪  來源:Newtalk新聞 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2024/0217/2019078.html