新聞 > 科教 > 正文

你確信這是親人的聲音嗎?7成受訪者難辨AI假冒語音

「媽,救救我!」美國亞利桑那州婦女迪斯特法諾接到女兒遭綁架後的求救電話,那哭泣聲音讓她毫無懷疑,綁匪要求她匯出100萬美元贖款。所幸她稍後連絡上女兒,證實稍早的電話全是人工智慧(AI)合成的仿真語音。根據一項跨國民調顯示,有7成受訪者表示,如果接到類似詐騙電話,他們恐怕無法分辨AI語音的真假。

「媽,救救我!」美國亞利桑那州婦女迪斯特法諾接到女兒遭綁架後的求救電話,那哭泣聲音讓她毫無懷疑,綁匪要求她匯出100萬美元贖款。所幸她稍後連絡上女兒,證實稍早的電話全是人工智慧(AI)合成的仿真語音。根據一項跨國民調顯示,有7成受訪者表示,如果接到類似詐騙電話,他們恐怕無法分辨AI語音的真假。

跨國民調指出,有7成民眾表示難以分辨AI語音跟真人的差別。合成圖片

新型詐騙震撼美國當局,歹徒使用網絡上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙親人。

法新社報導,專家表示,AI最大的危險是模糊了真實和虛幻的界線,讓網絡罪犯能有廉價又有效的技術來散播假訊息。

以迪斯特法諾(Jennifer DeStefano)為例,當時女兒在外地滑雪,她接到電話「100%」確定那是她15歲的女兒。

迪斯特法諾4月告訴當地電視台:「問題不是那是誰,那就是她的聲音…她哭起來就是那樣。」「我沒有一秒鐘懷疑過。」

還好迪斯特法諾幾分鐘後就連絡上真正的女兒,解除虛驚,也把案件通報警方調查,但這個案例充份顯示利用AI「複製」真人語音的網絡犯罪有多可怕。

在美國等9個國家針對7000人的民調中,1/4表示自己遇過AI語音詐騙,或聽過別人有類似經驗。

這份由美國資安公司邁克菲實驗室(McAfee Labs)上月發布的民調顯示,70%受訪者表示,沒有信心能「分辨真假語音」。

加州大學柏克萊分校資訊學院教授法瑞德(Hany Farid)告訴法新社:「因為現在製作高仿真的語音非常容易…網絡上幾乎無人能倖免。這些詐騙正廣為流行。」

Blackbird.AI人工智慧公司執行長卡利德(Wasim Khaled)指出,目前網絡能搜到多款免費應用程式,可用來合成仿真語音,只要有本人短短几秒的講話聲音,就可複製合成,平常在社群平台上傳的影音,可能被歹徒偷去用於電話詐騙。

這些「複製」的人聲可能傳送語音訊息,甚至可以用來在電話中跟人對話。

美國當局警告,最近常見的是「爺奶詐騙」,模仿孫兒、孫女的語音打電話給長輩,謊稱亟需用錢,向阿公阿嬤求助,「例如發生車禍、被警察拘留,需要籌措保釋金等等。」許多年長民眾聽到親人聲音,深信不疑,立刻匯款。

芝加哥19歲青年艾迪就有這樣親身經歷,他祖父接到詐騙電話,以為他發生車禍要賠大錢,甚至想要拿自家房子去貸款籌錢,還好騙局在他貸款之前就被拆穿。這種「假語音、真詐財」案件正在增加中。

今年初AI新創公司ElevenLabs坦承自家語音合成工具可被用於「惡意用途」,先前就有用戶發布透過「深偽技術」(Deepfake)合成的語音,假冒英國女星艾瑪華森(Emma Watson)讀希特勒自傳《我的奮鬥》(Mein Kampf)。

創投公司Team8科技主管塔賀奇堡(Gal Tal-Hochberg)受訪指出:「網絡上看到的東西你都不能輕易相信,我們已到了這種程度。」「人類需要研發一種技術,能讓人分辨跟你對話的對象,是你認識的真人。」

責任編輯: 楚天  來源:壹?新聞網 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2023/0612/1913491.html