新聞 > 科教 > 正文

里程碑式Google TPU v4重磅發布

Google I/O開發者大會去年因為疫情而取消,今年採取線上形式強勢回歸。在沒有開發者在場的Google園區內,Google CEO桑達爾·皮查伊(Sundar Pichai)宣布推出多項全新技術,除了能夠幫助用戶實現「空間瞬移」的全息視頻聊天技術Project Starling讓人耳目一新,還有最新一代AI晶片TPU v4。

「這是我們在Google上部署的最快的系統,對我們來說是一個具有歷史意義的里程碑。」皮查伊這樣介紹到。

最強TPU,速度提升2倍,性能提升10倍

Google官方介紹,在相同的64晶片規模下,不考慮軟體帶來的改善,TPU v4相較於上一代TPU v3性能平均提升2.7倍。

在實際應用中,TPU v4主要與Pod相連發揮作用,每一個TPU v4 Pod中有4096個TPU v4單晶片,得益於其獨特的互連技術,能夠將數百個獨立的處理器轉變為一個系統,互連頻寬在規模上是其他任何網絡技術的10倍,每一個TPU v4 Pod就能達到1 exaFlOP級的算力,實現每秒10的18次方浮點運算。這甚至是全球最快的超級計算機「富岳」的兩倍性能。

「如果現在有1千萬人同時使用筆記型電腦,所有這些計算機累加的計算能力,剛好就能夠達到1 exaFLOP的算力。而之前要達到1 exaFLOP,可能需要專門定製一個超級計算機。」皮查伊如是說。

今年的MLPerf結果表明,GoogleTPU v4的實力不容小覷,在使用ImageNet數據集的圖像分類訓練測試(準確度至少75.90%),256 個TPU v4在1.82分鐘內完成了這一任務,這幾乎與768個Nvidia A100圖形卡、192個AMD Epyc 7742內核(1.06分鐘)、512個華為AI優化的Ascend910晶片以及128個Intel Xeon Platinum 8168內核(1.56分鐘)組合在一起的速度一樣快。

當負責在大型維基百科語料庫上訓練基於Transform的閱讀理解BERT模型時,TPU v4的得分也很高。使用256個TPU v4進行訓練需要1.82分鐘,比使用4096 TPU v3進行訓練所需的0.39分鐘要慢1分多鐘。同時,如果想要使用Nvidia的硬體達到0.81分鐘的訓練時間,需要2048張A100卡和512個AMD Epyc 7742 CPU內核。

Google同樣在I/O大會上展示了能夠用到TPU v4的具體AI實例,包括能夠同時處理網頁、圖像等多種數據的MUM模型(Multitask Unified Model,多任務統一模型)和專為對話打造的LaMDA都是能夠用到TPU v4的場景模型,前者比閱讀理解模型BERT強1000倍,適合賦能搜尋引擎幫助用戶更加高效地得到自己想要的信息,後者則可以與人類進行不間斷的對話交流。

這一併不向外出售的TPU,很快將在被部署在Google的數據中心,且90%左右的TPU v4 Pod都將使用綠的能源。另外,Google也表示,將在今年晚些時候開放給Google Cloud的客戶。

Google自研TPU,五年更新四代

Google最早於2016年宣布首款內部定製的AI晶片,區別於訓練和部署AI模型的最常見的組合架構,即CPU和GPU組合,第一代TPU在那場世界著名的人機圍棋大戰助力AlphaGo打敗李世石「一戰成名」,宣告並不是只有GPU才能做訓練和推理。

Google第一代TPU採用28nm工藝製程,功耗大約40w,僅適用於深度學習推理,除了AlphaGo,也用在Google搜索、翻譯等機器學習模型中。

2017年5月,Google發布了能夠實現機器學習模型訓練和推理的TPU v2,達到180TFLOPs浮點運算能力,同時記憶體頻寬也得以提升,比同期推出的CPU AI工作負載提升30倍,比GPU AI工作負載提升15倍,被基於4塊TPU v2的AlphaGo擊敗的世界圍棋冠軍柯潔最直觀地感受了這一切。

2018年5月,Google又發布第三代TPU,性能是上一代TPU的兩倍,實現420TFLOPs浮點運算,以及128GB的高頻寬記憶體。

按照一年一次疊代更新的節奏,Google理應在2019年推出第四代TPU,不過這一年的I/O大會上,Google推出的是第二代和第三代TPU Pod,可以配置超過1000顆TPU,大大縮短了在進行複雜的模型訓練時所需耗費的時間。

在AI晶片發展史上,無論是從晶片上記憶體上,還是從可編程能力來看,Google TPU都是不可多得的技術創新,打破GPU的「壟斷」地位,且打開雲端AI晶片的新競爭格局。

發展五年的Google TPU在今天依然保持著強勁的競爭力,未來的世界是什麼樣的?Google TPU已經告訴了我們一小部分答案。

責任編輯: 夏雨荷  來源:雷鋒網 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2021/0522/1596050.html