新聞 > 科教 > 正文

OpenAI前董事批奧特曼:營造「撒謊的有毒文化」

劃重點:

1 OpenAI兩名前董事撰文指出,私營人工智慧公司不值得信任,自我監管在巨大利潤誘惑下最終會失效,政府必須發揮積極作用。

2 兩人曾是OpenAI董事會中僅有的女性,於去年11月離職。她們都支持罷免CEO奧特曼,認為他創造了「有害的」工作環境。

騰訊科技訊5月27日消息,據國外媒體報導,OpenAI前董事會成員海倫·托納(Helen Toner)和塔莎·麥考利(Tasha McCauley)日前撰文談到了人工智慧的監管問題。

兩人分別於2018年和2021年加入OpenAI董事會,也是董事會中僅有的兩名女性。在奧特曼被董事會罷免風波平息後,她們兩人於去年11月離開OpenAI董事會。

在最新文章中,她們透露,當初投票罷免奧特曼,是由於奧特曼個人長期以來的行為模式,董事會維護公司使命的能力受到了越來越大的限制。多位高層領導私下向董事會稱,奧特曼營造了一種「撒謊的有毒文化」,並涉嫌「心理虐待」行為。

她們提到,自從奧特曼重返OpenAI以來,一些發展動態令人擔憂,包括他重新加入董事會,以及OpenAI一些專注於安全領域的高級人才的離職。這些情況對於OpenAI在自我治理方面的實驗來說,似乎預示著一些不利的影響。

她們認為,為了讓人工智慧的發展惠及所有人,政府現在就必須開始建立有效的監管框架。

值得一提的是,今年4月,美國成立人工智慧安全委員會,該委員會將為美國關鍵基礎設施中「安全開發和部署人工智慧」提供建議。奧特曼在22名委員會成員之列,此外還包括黃仁勛、皮查伊等科技公司領導人。雖然也有來自非營利組織的代表,但總體而言,營利性公司領導人所占比例過高。

以下為二人聯名撰寫的文章全文:

在推動革命性新技術發展的同時,私企能否兼顧股東利益與全球利益?當我們二人在2018年和2021年分別加入OpenAI董事會時,都曾對OpenAI創新的自我治理方法抱有謹慎的樂觀態度,期待它能為人工智慧的負責任發展提供示範。但經驗教訓告訴我們,自我治理難以抵禦利潤的驅動。面對人工智慧的雙刃劍,我們不能僅憑假設認為激勵因素總是與公共利益一致。為了讓人工智慧的發展成果惠及全人類,政府必須立即著手建立有效的監管框架。

OpenAI的創立,旨在實現一個崇高的目標:確保通用人工智慧(AGI)能夠為全人類帶來福祉。作為一個非營利組織,OpenAI的成立初衷是為了確保通用人工智慧能夠惠及全人類,這是一種理論上能超越人類智能的人工智慧系統。為了籌集資金,公司隨後成立了一個營利性子公司,但非營利的母公司保持了主導地位。這種獨特的結構旨在確保公司能夠堅守其原始使命,而董事會的職責是維護這一使命。雖然這是一次創新的嘗試,但遺憾的是,結果並未如預期般成功。

去年11月,為了挽救自我監管架構,OpenAI時任董事會作出了一項重大決策,解僱了CEO山姆·奧特曼。由於奧特曼個人長期以來的行為模式,董事會維護公司使命的能力受到了越來越大的限制。據我們了解,這些行為不僅削弱了董事會對關鍵決策和內部安全協議的監督能力,還引發了其他問題。多位高層領導私下向董事會表達了深切的擔憂,他們認為奧特曼營造了一種「撒謊的有毒文化」,並涉嫌「心理虐待」行為。

根據OpenAI的說法,一項內部調查發現董事會在解僱奧特曼時「行使了其廣泛的自由裁量權」,但也得出結論認為他的行為未達到「必須解除職務」的程度。不過,OpenAI並未提供足夠的具體細節來支持這一結論。無論是對員工、媒體還是公眾,OpenAI董事會都未將調查報告公之於眾。這一事件凸顯了在人工智慧領域自我監管的挑戰,同時也引發了對公司治理、透明度和道德標準的深入思考。隨著人工智慧技術的迅速發展,如何確保技術的倫理使用和公司的社會責任,已成為業界和監管機構必須面對的重要議題。

關於是否應該普遍要求「強制解除」CEO職務的問題,我們可以留待其他時間再進行深入討論。然而,在OpenAI這個特殊案例中,考慮到董事會有責任提供獨立的監督,並保護公司的公共利益使命,我們堅定地支持董事會解除奧特曼CEO職務的決定。我們還注意到,自從奧特曼重返公司以來,一些發展動態令人擔憂,包括他重新加入董事會,以及OpenAI一些專注於安全領域的高級人才的離職。這些情況對於OpenAI在自我治理方面的實驗來說,似乎預示著一些不利的影響。

我們所經歷的事件傳遞了一個重要的警示:在人工智慧的推廣過程中,社會不能袖手旁觀,任由私營科技公司全權掌控。在私營部門,確實有許多真誠且值得稱讚的努力,旨在負責任地推動這項技術的發展。然而,即使這些努力背後的意圖是積極的,如果沒有有效的外部監督,自我監管很容易變得形同虛設,特別是在面對巨額利潤誘惑時。因此,政府必須採取積極行動,確保人工智慧的發展既能促進創新,又能保護公共利益,從而避免潛在的濫用和風險。

然而,在過去數月中,華盛頓的立法者和矽谷的投資者中,主張對人工智慧領域實行最小化政府干預的呼聲愈發高漲。他們傾向於將這種立場與1990年代網際網路行業的放任政策相提並論,並聲稱這種政策曾催生了顯著的經濟增長。然而,這種類比並不恰當,其背後隱藏的誤導性不容忽視。

在人工智慧研究和工程領域的廣大社群中,人們普遍認識到開發日益高級的人工智慧技術所伴隨的高風險和重大挑戰。正如奧特曼本人所指出的那樣:「平穩過渡到一個擁有超級智能的世界,可能是人類歷史上最為關鍵、最充滿希望,同時也最令人憂慮的事業。」許多傑出的人工智慧科學家都對他們正在創造的技術表達了深刻的關切,這種關切已經被詳盡記錄,且與早期網際網路的開發者--程式設計師和網絡工程師--所持有的樂觀態度大相逕庭。

網際網路的弱監管是否為社會帶來了純粹的利益,這一點尚不明確。誠然,許多成功的科技企業和他們的投資者從在線商業活動的寬鬆監管中獲得了巨大的利益。然而,當涉及到監管以減少社交媒體上的虛假信息和錯誤信息、防止兒童剝削和人口販賣,以及應對日益嚴重的青少年心理健康危機時,社會是否已經找到了恰當的平衡點,這一點尚不明朗。

商品、基礎設施以及社會本身,均得益於監管的積極作用。正是監管的實施,讓汽車配備了安全帶與氣囊,讓我們無需擔憂飲用受污染的牛奶,確保了建築的無障礙通行。明智的監管同樣能夠保證人工智慧的利益以負責任且廣泛的方式實現。一個有效的起點是制定政策,增強政府對人工智慧尖端技術進展的透明度,比如設立透明度要求和事件追蹤機制。

然而,監管亦非無懈可擊,它需要謹慎處理。設計不當的監管可能會對小型企業施加過重的負擔,抑制競爭與創新。政策制定者在制定新規時,必須保持獨立性,避免受領先人工智慧企業的影響。他們需要警惕監管漏洞,防止形成保護先行企業的監管「護城河」,以及監管俘獲的風險。奧特曼本人對人工智慧監管的呼聲,也應在這些潛在問題下審視,確保它不是出於自身利益的考慮。一個合適的監管框架需要靈活調整,與世界對人工智慧能力理解的擴展保持同步。

我們堅信,人工智慧有潛力極大地提升人類的生產力與福祉,但這條道路並非沒有風險。OpenAI作為一項大膽的嘗試,旨在開發日益強大的人工智慧,同時將公共利益置於利潤之上。然而,即便在最有利的條件下,自我治理機制也不足以應對挑戰。因此,公共部門必須積極參與技術的發展過程。現在是全球政府機構展現領導力的時刻。唯有通過市場力量與審慎監管的恰當平衡,我們才能確保人工智慧的進步真正造福於全人類。

責任編輯: 李華  來源:騰訊科技 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2024/0529/2060429.html