新聞 > 科教 > 正文

有多少中國人,把烏克蘭網紅的臉做成了親俄帶貨工具?

也許你還記得,在去年六月,有一群中國人利用特效換臉,開始假裝俄羅斯人帶貨。

從室內到戶外,從城市到農村,他們活躍在在每片能支棱起手機拍視頻開直播的土地上,操著一口帶有濃郁方言味的普通話,在商品櫥窗里上連結。

他們的視頻和直播里,沒有什麼狠活。

總結起來就一句話,「我,俄羅斯人,喜歡中國,打錢」。

我本以為,隨著那篇報導的結束,中國人假冒毛子的故事就告一段落。

但我萬萬沒想到,在2024年,這個套路他360度大升級了。

具體是咋回事呢?

這兩天,一個叫 Olga Loiek的烏克蘭女孩發了條視頻,說有個朋友給她發個連結,自己一看,人都傻了。

好傢夥,我怎麼在中國咔咔帶上貨了??

原來在小紅書上,有這樣一類帳號,天天就是一個長相完全一致的金髮美女,變著法的講中俄友誼長存,三句離不開謝謝中國。視頻結尾,還會給你介紹下俄羅斯的美食。

而看視頻的老鐵們,自然也要照顧下大妹子的生意。

是的,成百上千萬中國觀眾看到的這張侃侃而談的「臉龐」,就是 Olga Loiek。

反觀 Olga,自己還沒在 YouTube上賺到半毛錢呢。

而且更尷尬的是,臉被別人偷去用來帶貨不說,作為一個烏克蘭人,人設還是個俄羅斯人,帶得還都是人俄羅斯的土特產。。。這找誰說理去。

如果你沒法和這個女孩共情,不妨可以設想一下,一個美國人頂著你的臉,假裝自己是日本人,變著法吹日本。

然後他還利用你的臉,從其他美國人手裡,賺了你這輩子都不一定能賺到的錢,在視頻評論區里,觀眾們刷的都是「你好日本,愛來自美國」。

你氣不氣?

Olga Loiek也不是唯一一個倒霉蛋,另一位來自瑞典的網紅拉納布萊克利的臉,也被移花接木到了中國人臉上。

在視頻里,「她」大談中國人的勤勞善良,並且嫁給中國老公,餘生在中國定居。

看完視頻的網友也不知道自己成了即將被噶的韭菜,還在問她喜歡中國哪個城市。

在抽查了幾個被 Olga Loiek展示的帳號之後,我發現這些假冒外國人的中國帳號,有些已經在各大平台註銷掉了,但還有一些依舊逍遙法外。

可世上只有千日做賊,哪有千日防賊。

AI技術的發展速度,明顯比人類目前的應對速度要快。

在一年前, AI技術還是被網友嘲笑的對象,網友看了也只會覺得這輩子的恐怖谷效應都犯完了。

然而現在, AI技術已經可以產生以假亂真的效果了。

變化總是在悄無聲息中進行,在 AI技術日漸進步的今天,眼睛和耳朵,正在逐漸失去辨別能力。

人的知覺,正在資訊時代的衝擊下「被退化」。

看到這,估計很多差友會覺得這些事都離自己太遠,比如那個假冒的烏克蘭女孩,懂行的一看就知道了,完全騙不到自己啊?

那你再試試這個呢?

如果你比較關注遊戲雜談,那你可能還記得一個叫做敖廠長的視頻博主,他因為幾波輿論潮,基本敗完了自己的口碑。

在去年,他先後停止了 B站和抖音的更新,悄無聲息的從網友的關注列表里消失了。

可就在前兩天,一位 B站 UP主用自研 AI文本轉語音技術,搭配上他原有的文案和剪輯風格,愣是復刻了一整個 UP主敖廠長出來,給我看恍惚了。

彈幕里都在刷「亡靈法師」「招魂成功」。

在這個 UP主頁貼出的網址中,還能找到更多奇奇怪怪的 AI音聲,比如丁真、科比、孫笑川,以及一些知道這個網站八成要發律師函的明星們。

那麼,使用 AI生成一個人的音聲,要搜集多少真人的聲音呢?

UP主在視頻介紹中,給出的答案是:5秒。

沒錯,你只要說5秒鐘的話,你的聲音就可能已經被克隆了。

如果以上的技術,能夠用在發展生產力,推動社會進步上,那勉強還能算是最好的結局。

但你要知道,現在的 AI技術,已經越來越下沉。

第一天出了個厲害的 AI軟體,第二天使用教程就有博主給你發抖音了,簡直就是手把手教學,從入坑到精通給你安排的明明白白。

不可否認,這是一件好事,可它也把人心底的陰暗面一點點放大,最後形成公共事件。

前幾天, AI生成的泰勒斯威夫特虛假不雅照片,在整個網絡上瘋傳,甚至驚動了美國白宮。

白宮新聞發言人卡里娜·讓-皮埃爾警告 AI生成照片的傳播「令人擔憂」,並敦促社交媒體公司防止此類錯誤信息的傳播。

泰勒這事為啥這麼爆炸?畢竟早在 PS時代,就有很多女性飽受換臉的困擾了對吧?

但在 AI時代,照片裡的所有細節都可以被精心定製。

泰勒這次,就是因為交了一個橄欖球星男朋友,被生成出了在橄欖球更衣室里的照片。。。

換誰不急眼?

後來也是由於類似的圖片過多,推特一度封鎖了對斯威夫特的相關搜索。

為什麼全美國因為這事都開始變得神經兮兮,因為大家都清楚,今天是泰勒,明天可能就是自己。

而且 AI乾的壞事,也不只是下三路,它的能量比你想的龐大。

在中國香港,發生過一起 AI「深度偽造」詐騙案。

詐騙者就是通過 AI技術,把網上搜集到的跨國公司總部高層的聲音和面貌,替換到自己身上,然後,簡簡單單從該公司的香港分公司騙走了2億港元,甚至,公司財務連老闆的人臉和聲音都沒看出來有啥異常。

你以為 AI也就到這種程度嗎?

別忘了,2022年,烏克蘭總統澤連斯基「呼籲烏克蘭士兵放下武器投降」的視頻在網上傳播。

這條十分整蠱的視頻,逼到烏克蘭國防部都要站出來聲明「這是不可能的」。

由此可見,從個人到團體,甚至是國家之間的戰爭,每個能鑽的空子,都成為了 AI的突破口。

更可怕是,到目前為止,還沒有一個特別好的招兒能防讓住人用 AI幹壞事。

網絡安全業內人士,i春秋的朋友小傲(化名)就告訴世超,反 AI犯罪的難點主要有兩方面,一個是技術層面,一個是經濟層面。

在技術層面上, AI生成內容的識別難度大,特別是 AI越發展,肉眼能識別出來的概率也越小,這種時候就只能上機器。

而在經濟層面上,用 AI來犯罪並不是難事也不需要花什麼錢,但用 AI來反 AI的成本就高了,你得砸錢出力去搞研究。

現階段,國內外有不少監管機構和公司在想法子拴住 AI,去年公安部就端了個用 AI寫勒索病毒的團伙。

市面上,也有不少檢測 AI生成內容的工具,但效果還不好說。

OpenAI之前就推出過一款文本檢測工具,但因為檢測錯誤率太高偷偷給下架了。。。

兩年前,微軟還有 BBC等幾家科技公司和媒體一起合作,成立了個內容來源和真實性聯盟( C2PA)。

有了 C2PA協議之後,內容是誰創作的,歷史的修改記錄,都會被記錄下來。就相當於給生成的內容,打上了一層看不見的水印。

但用小傲的話來說, C2PA這玩意屬於防君子不防小人,大廠守規矩,不代表很多開源調出來的小模型,也會遵守協議。

而且, C2PA現在還有不少 Bug,像一截圖水印就沒了,要生效也得好幾個平台都使用協議才行。

所以很殘酷的一個現實是,現階段咱們沒法兒杜絕 AI幹壞事。

關鍵在於, AI技術發展得實在是太快了, AI生成的內容越來越逼真,生成的門檻卻越來越低,就像 Sora問世後,大家都在說「現實,不存在了」。

不可否認,之後的立法、反 AI技術肯定會跟上,但這種敵在暗我在明的情況,監管就很被動了。

這就像一場貓鼠遊戲, AI知道規則就會繞過去,人類再設置新的規則,這場遊戲,或許永無止境。

責任編輯: zhongkang  來源:差評 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2024/0220/2020240.html