資料圖。現任OpenAI的執行長山姆‧奧特曼。
美國人工智慧研究機構OpenAI的掌門人、現任執行長(CEO)山姆‧奧特曼,近日在接受一位科技主播的專訪時表示,現在AI已經出現讓人無法解釋的推理能力,將來過於強大的通用人工智慧(AGI)殺死人類也是有可能的。
奧特曼是在3月25日接受科技主播、MIT人工智慧研究員Lex Fridman的專訪時,作出了上述表示。
在這場長達2個半小時的對話中,奧特曼談論了AI競爭戰、GPT-4開發內幕、人工智慧的安全與偏見、他對馬斯克的評價、如何看待利用ChatGPT越獄以及AGI發展前景等多個熱點話題。
奧特曼在專訪中說,ChatGPT在可用性方面取得的重大突破,以及RLHF(基於人類反饋的強化學習)的成功應用,讓ChatGP有資格成為人工智慧的里程碑。
關於GPT-4的研發情況,是這場對話中最受人們關注的一部分。
奧特曼披露,研發人員是依照預訓練+RLHF的方式來對GPT-4進行訓練的。大約在去年夏天,GPT-4的訓練就已經完成,之後一直在進行更深入的微調工作,以便讓這款AI可以表現得更符合人類的需求。他說,與龐大的預訓練數據集相比,RLHF所用的數據非常少,但效果是決定性的。
奧特曼還透露,GPT-4的數據來源除一些開源數據集外,還有部分是合作商提供的數據集。他說,目前網絡梗圖在訓練數據中占比不大,如果數據來源再多點,GPT-4的回答可能會更加有趣。
奧特曼接著透露說,雖然ChatGPT系列絕大部分時候都被當做資料庫使用,但它確實也表現出了讓人難以解釋的某種程度的「推理能力」。至於這種能力具體是如何出現的,目前無人能回答。研究團隊甚至奧特曼自己,至今也不能完全解讀GPT-4,只能通過不斷問它問題,然後根據它的回答來分析它的「思路」。
當主持人提到關於ChatGPT以及GPT-4存在「偏見」的問題時,奧特曼回答說,ChatGPT在推出之初並不是一個成熟的產品,這項技術需要不斷疊代,而疊代的過程僅僅依靠內部的力量是無法完成的,需要藉助外部世界的集體智慧和能力來進行。然而,在疊代的過程中,不同人對於問題的看法千差萬別,「偏見」問題也就不可避免。
奧特曼承認,GPT-4確實存在應對不同價值觀的人的問題,而臨時的解決辦法是把更改系統消息(system message)的權限開放給用戶。
據奧特曼介紹,將來研發人員會就這些系統能做什麼來達成一套非常寬泛的協議,在這些邊界內,不同的國家可能會有不同的RLHF調整,個別用戶也有非常不同的偏好。他說:「我們發布了一個叫做『系統消息』的東西,不是RLHF,但可以讓用戶最大限度獲得控制權。」
主持人Lex在訪談過程中,突然提到了當前用戶對GPT-4提出的一些尖銳的批評。
例如,前段時間網民討論得沸沸揚揚的利用GPT-4越獄的問題。一名斯坦福教授僅僅用30分鐘,就誘導GPT-4制定出了一個越獄計劃,並全部展示了出來。
對此奧特曼回應稱,他自己當年也曾經用自己的第一台蘋果手機嘗試過設計「越獄」,當時覺得這是個「很酷」的事情,但現在已經沒有多少人去干用蘋果「越獄」的事情了,因為不越獄也足夠好用了。
此外,在談及馬斯克近期不斷公開對OpenAI提出批評和質疑的話題時,奧特曼表示,「我理解他(馬斯克)的想法,因為他很擔心AGI(通用人工智慧)的安全性。
奧特曼說,「我很欣賞埃隆(馬斯克),他是我的英雄之一。儘管他在推特上有點粗暴,我希望他能更多地關注到,我們正在進行一項艱苦工作。」
當被問及「GPT-4是AGI嗎」這個問題時,奧特曼表示,據他的理解,AGI所掌握的知識應該是要超過人類科學知識總和的,並且具有創造性,能夠推動基礎科學的發展。而目前所有的GPT並不能做到這些,想要達到AGI的水準,還需要繼續拓展。
在談到人們關於AGI過度發展可能給人類帶來威脅,甚至有可能殺死人類的問題時,奧特曼表示,他不否認過分強大的AGI可能存在這樣的危險性。
「我必須承認,(AI殺死人類)是有一定可能性的,」奧特曼說,「很多關於AI安全和挑戰的預測被證明是錯誤的,我們必須正視這一點,並儘早嘗試找到解決問題的方法」。