阿波羅新聞網新聞 > 科教 > 正文

外媒:Google新人工智慧壓力大時會"高度暴力"!

去年年底,著名的物理學家史蒂芬霍金(Stephen Hawking)發出警告,“人工智慧的持續發展,對於人類來說,不是最好,就是最壞。”

我們都看過電影魔鬼終結者(Terminator),而自覺性高的人工智慧系統天網(Skynet)的天啟示噩夢使人類激動。然而現在,來自谷歌(Google)新的深靈(DeepMind)人工智慧系統在最近的性能測試結果,讓我們明白在製造未來的機器人時,需要多麼的小心。

在去年年底的測試,谷歌的深靈人工智慧系統展示一項能力,從自己的記憶力來獨自學習,並且在比賽中擊敗世界頂尖圍棋好手。

這是自從一直在弄清楚如何無縫模仿人類的聲音以來。

現在,研究人員正在測試深靈與其他人合作的意願,並且透露當深靈感覺到要輸的時候,它會選擇“高度暴力)”的策略,以確保最後的獲勝。

谷歌團隊執行4千萬次簡單的’水果收集(fruit gathering)’電腦遊戲,要求兩個深靈’代表’相互競爭,來儘力收集虛擬蘋果的數量。

他們發現,只要有足夠的蘋果滿足需求,遊戲就會順利進行。但是一旦蘋果數量開始漸漸減少,這兩個代表就變得暴力,使用雷射光束互擊造成對方退出遊戲,以便於竊取所有的蘋果。

您可以在下面的影片中觀看水果收集遊戲。藍色和紅色為深靈代表,綠色為虛擬蘋果,而黃色為雷射光束:

現在那些是一些好戰的水果收集者。

有趣的是,如果一個深靈代表成功地用雷射光束’標記’對手,它不會得到額外的獎勵。這隻會使對手退出比賽一段時間,讓成功的深靈代表來收集更多的蘋果。

如果這兩個深靈代表沒有使用雷射光束,理論上它們可以在最後得到相同數量的蘋果,這是深靈’比較不聰明’的循環方式選擇要做的。

只有當谷歌團隊測試越來越多深靈被設定為蓄意破壞、貪婪和敵對情緒的複雜形式時。

如同Rhett Jones在美國流行科技網誌Gizmodo報導,當研究人員使用較小型的深靈網路作為代表時,和平共存的可能性會比較大。

但是當他們使用更大型,更複雜的網路作為代表時,這個人工智慧會更加有願意早早擊敗對手,以便於獨吞虛擬蘋果。

研究人員認為,深靈代表越聰明,越有能力從環境中學習,讓它能夠使用一些高度侵略性的戰術來獲勝。

團隊中的一位成員Joel Z Leibo告訴連線雜誌(Wired)的Matt Burgess:“作為一個環境和學習的產品,這個模型…展示出一些像人類的行為。”

“從代價不高的相對充裕環境中學習,會浮現出暴力性較低的政策。貪婪的動機則反映出誘惑把對手除掉,然後自己收集所有蘋果。”

然後深靈被命令來玩第二個電玩,這個電玩叫做狼群(Wolfpack)。這一次有三個人工智慧代表,其中兩個扮演狼,而另一個作為獵物。

不像水果收集遊戲,這款遊戲主動鼓勵合作,因為如果獵物被捕時,這兩隻狼是在附近,它們都會獲得獎勵,不管實際上是哪只狼群抓住獵物。

這個團隊在他們的論文中解釋:“遊戲的想法是獵物是危險的,一隻孤單的狼可以擊敗它,但會有屍體被食腐動物搶走的風險。”

“然而,當兩隻狼一起獵捕時,它們可以更好地保護獵物屍體免於被食腐動物搶走,因此可以獲得更高的獎勵。”

因此,正如深靈代表從水果收集遊戲中所學到的,侵略和自私讓它們在特定環境中網住最有利的結果。它們從狼群遊戲中學到,合作也能夠在某些情況下,取得更大的個人成功的關鍵。

雖然這些只是簡單的小型電腦遊戲,但訊息是很清楚的,讓不同的人工智慧系統負責在現實生活情況中的競爭利益。如果在對抗更甚於對人類有利的總體目標的時候,它們的目標是不平衡的,那麼就有可能是一個全面的戰爭。

想想交通號誌試圖讓汽車減速,以及無人駕駛汽車試圖找到最快的路線,雙方都需要考慮彼此的目標,達成社會最安全和最有效的結果。

深靈還處於初期階段,而且谷歌團隊還沒有在同行評審論文中發表他們的研究。但初步結果顯示,只是因為我們做出了它們,並不意味著機器人和人工智慧系統會自動地把我們的利益放在心中。

相反的,我們需要把這有用的本質做進我們的機器中,並預期任何可能看到它們伸手去拿雷射光束的’漏洞’。

作為開放人工智慧(OpenAI)的創始人,伊隆·馬斯克(Elon Musk)的新研究計劃致力於人工智慧的道德。他在2015年說:

“人工智慧系統在今天有令人印象深刻但狹隘的能力。似乎我們將繼續削減它們的約束,在極端的情況下,差不多每一項智慧性任務它們會達到人類的表現。”

很難推測人類程度的人工智慧可以對社會有多少幫助。同樣地,也很難想像如果不正確地製造或使用,對社會有多少損害。

人類要小心行動…

來源:ScienceAlert

阿波羅網責任編輯:于飛 來源:贊新聞編譯 轉載請註明作者、出處並保持完整。

科教熱門

相關新聞

➕ 更多同類相關新聞