新聞 > 科教 > 正文

2024年 AI技術將迎來一系列令人恐懼的突破

—將在2024年實現的3項恐怖的AI突破

雖然2023年對於人工智慧來說,是一個改變遊戲規則的一年,但這只是開始,2024年將迎來一系列令人恐懼的突破,包括**通用人工智慧**和甚至更加逼真的深度偽造技術。

人工智慧(AI)已經存在了幾十年,但今年對於這項令人毛骨悚然的技術來說是一個突破性的時刻,OpenAIChatGPT為大眾創造了實用、易用的AI。然而,人工智慧的歷史卻充滿了爭議,今天的技術是由一系列失敗的實驗累積而來的。

總的來說,人工智慧的創新看起來有望提升諸如醫學診斷和科學發現等領域。例如,一個人工智慧模型可以通過分析X光掃描來檢測你是否有高風險患肺癌。在新冠病毒流行期間,科學家們也構建了一個能夠通過聽人們咳嗽的微妙差別來診斷病毒的算法。AI也已被用於設計超越人類構思的量子物理實驗。

但並非所有的創新都那麼善良。從致命的無人機到威脅人類未來的AI,以下是一些可能在2024年出現的最恐怖的AI突破。

Q-Star:通用人工智慧的時代?

我們不清楚為何OpenAI的CEO Sam Altman在2023年底被解職並復職。但在OpenAI的企業混亂中,有謠言傳出,有一種稱為Q-Star(讀作 Q星)的先進技術可能威脅到人類的未來。這個由OpenAI開發的系統可能是通用人工智慧(AGI)這個引人注目的概念的具體體現,據路透社報導。關於這個神秘系統我們知之甚少,但如果報導屬實,它可能將AI的能力提升到一個新的層級。

通用人工智慧是一個假設的轉折點,也被稱為"奇點",在這個點上,AI變得比人類更聰明。當前的AI在一些人類擅長的領域,如基於語境的推理和真正的創造力,仍然落後。大多數(如果不是所有的)AI生成的內容只是以某種方式重複訓練數據。

但是,研究人員稱通用人工智慧可能比大多數人更好地完成某些工作。它也可能被武器化,用於創建增強型病原體,發起大規模的網絡攻擊,或者進行大規模的操縱。

通用人工智慧的想法長期以來一直被限制在科幻小說中,許多科學家認為我們永遠不會達到這個點。如果OpenAI已經達到了這個轉折點,那無疑會令人震驚-但也並非沒有可能。我們知道,例如,Sam Altman在2023年2月就已經開始為通用人工智慧做前期準備,他在博客文章中概述了OpenAI對通用人工智慧的方法。我們也知道專家們開始預測即將發生的突破,包括英偉達的CEO Jensen Huang在11月份表示,通用人工智慧在未來五年內將變得觸手可及,這是巴倫報報導的。2024年會是通用人工智慧的突破年嗎?只有時間會告訴我們答案。

(示意圖)

影響選舉結果的超現實深度偽造

人們對網絡威脅最重要的一種擔憂是深度偽造技術**--完全捏造的人像圖片或者視頻,可能被使用來誤導他們,污名化他們,甚至對他們進行欺凌。但深度偽造的AI技術還沒有發展到足以構成重大威脅的程度,但這個情況或許即將改變。

AI現在可以實時生成深度偽造-換句話說,現場視頻-它現在變得非常擅於生成人臉,以至於人們無法分辨真假。另一項發表在11月13日的《心理科學》雜誌上的研究揭示了"超現實主義"的現象,其中AI生成的內容比實際的真實內容更有可能被視為"真實"。

這將使得人們幾乎不可能用肉眼分辨事實與虛構。儘管有工具可以幫助人們檢測深度偽造,但這些工具還沒有成為主流。例如,英特爾製造了一個可以實時檢測深度偽造的設備,其工作方式是使用AI來分析血液流動。但是據BBC報導,該設備,被稱為FakeCatcher,的結果參差不齊。

隨著生成型AI的成熟,一個恐怖的可能性是,人們可能使用深度偽造技術來試圖影響選舉結果。例如,據金融時報報導,孟加拉正準備迎接一個可能被深度偽造技術干擾的1月選舉。當美國為2024年11月的總統選舉做準備時,AI和深度偽造技術可能會改變這個關鍵投票的結果。例如,加州大學伯克利分校正在監控競選中的AI使用情況,NBC新聞也報導說,許多州缺乏法律或工具來應對人工智慧生成的假信息的激增。

普及的人工智慧驅動的殺人機器人

世界各地的政府越來越多地將人工智慧納入軍事工具。美國政府在11月22日宣布,有47個國家批准了有關在軍事中負責任地使用人工智慧的聲明--這個聲明最初在2月在海牙啟動。為什麼需要這樣的聲明呢?因為"不負責任"的使用可能成為真實而可怕的前景。例如,我們看到AI無人機在沒有人類輸入的情況下在利比亞獵殺士兵。

AI可以在軍事環境中識別模式,自我學習,進行預測或生成建議,人工智慧軍備競賽已經開始。到2024年,我們可能不僅見到AI被用於武器系統,還可能見到它在後勤和決策支持系統中,以及研發過程中也有所使用。例如,2022年,人工智慧生成了40000種新穎的、假設性的化學武器。美國軍隊的各個分支已經訂購了可以比人更好地進行目標識別和戰鬥跟蹤的無人機。據美國國家公共廣播電台(NPR)報導,以色列在最近的以色列-哈馬斯戰爭中,也使用了人工智慧來快速識別目標,至少比人類快了50倍。

但其中最令人恐懼的發展領域是致命的自主武器系統(LAWS)-或者說是殺人機器人。包括史蒂芬·霍金在2015年和伊隆·馬斯克在2017年在內的一些傑出的科學家和工程師都警告過殺人機器人,但這項技術尚未在大規模上實現。

然而,一些令人擔憂的進展表明,今年可能會是殺人機器人的突破年。例如,在烏克蘭,據《原子科學家公報》的報導,俄羅斯可能部署了Zala KYB-UAV無人機,該無人機能夠識別並攻擊目標,無需人類干預。此外,澳大利亞開發了一款名為"鬼鯊"的自主潛艇系統,據《澳大利亞金融評論》報導,這款潛艇將開始"大規模"生產。全球範圍內各國在人工智慧上的投入也是一個指示符-根據Datenna的數據,從2010年的1160萬美元到2019年的1.41億美元,中國在人工智慧上的投入增長了很多。這是因為,如該出版物所述,中國正在與美國競跑,爭相部署致命的自主武器系統。這些發展綜合表明,我們正在迎來人工智慧戰爭的新黎明。

責任編輯: 方尋  來源:煎蛋網 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2024/0103/1999036.html