谷歌又放大招啦——全面開放TPU云服務。
13日,谷歌傳奇Jeff Dean連發10條推特,正式宣布TPU首次對外全面開放,具體來說是將“有限數量”TPU(為機器學習定制的人工智能芯片)向谷歌云客戶開放,每小時收費6.5美元。
此舉意味著TPU的商業化正在加速。 也意味著谷歌將在GPU領域與英偉達正面交鋒。
TPU到底厲不厲害?
TPU是谷歌為機器學習而設計的人工智能定制芯片,是一種ASIC(專用集成電路)。是谷歌為機器學習而設計的人工智能定制芯片,第一代TPU于2016年低調推出,廣泛應用在AlphaGo、搜索、翻譯、相冊等背后的機器學習模型中。在AlphaGo戰勝李世石的系列賽中,TPU能讓AlphaGo“思考”更快,“想”到更多棋招、更好地預判局勢。
第二代TPU是在2017年5月18日的Google I/O 大會上推出,也稱為云TPU。云TPU對推理和訓練都進行了優化,每個 Cloud TPU 包含 4 個定制化的 ASIC,每個 Cloud TPU 的計算能力達到每秒 180 萬億次浮點運算(180 teraflops),并提供有 64GB 的高帶寬內存。
另外,這些電路卡即可以單獨使用,也可以通過超高速專用網絡連接起來,形成一個多層次的機器學習超級計算器,谷歌將之稱為“TPU pod”。谷歌預計今年晚些時候,將會開始供應這種更大的超級計算器,并表示訓練的時間-精度比將得到顯著提升。
宣布開放,就是正式向英偉達開炮
在AI領域,眾所周知英偉達的GPU在AI時代獨占鰲頭,紅利盡享。其勁敵就是谷歌的TPU。此前TPU并未向第三方用戶開放,英偉達的黃仁勛在談到谷歌TPU時,就曾強硬的表示,對GPU并不構成實質性威脅。
當時,老黃還列了列參數:新的TPU可以實現45 teraflop的運算能力,而英偉達最新的Volta GPU則能達到120 teraflop。不知道黃教主此刻是何種心情。
當然此前谷歌也并不是 TPU 的唯一使用者,美國出行服務公司 Lyft 在去年底開始參與了谷歌新型芯片的測試。Lyft的軟件總監Anantha Kancherla表示,“自從使用Google Cloud TPU以來,我們對其速度印象非常深刻,以前通常需要幾天,而現在可能需要幾個小時。深度學習正成為使自動駕駛車輛得以運行的軟件的中堅力量。”
另外,谷歌方面表示,傳統上,為定制 ASIC 和超級計算器編寫程序需要專業知識技能。相比之下,谷歌的這款TPU實現了與TensorFlow的無縫融合,幾乎無需改動,只需要使用高級 TensorFlow API 就可以對 Cloud TPU 進行編程了,像是:
- ResNet-50 以及其它流行的圖片分類模型
- 針對機器翻譯和語言建模的 Transformer
- 針對物體追蹤的 RetinaNet
芯片提供的是人工智能三要素中的計算力,如今TPU的全面開放,可為中小AI公司在2018年的商業化應用落地提供硬件上的強大支撐。但也有業內人士評論稱“TPU只能通過云獲取是一大障礙,英偉達在硬件方面還是碾壓谷歌”,并且認為“TPU對固定算法還是有要求,目前應用范圍最廣還是GPU。”
對谷歌來說,開放TPU有什么好處?
TPU專用于人工智能和機器學習,可為谷歌帶來兩大好處:首先,利用自主研發的芯片,谷歌可以在核心的計算基礎設施方面更便宜、更有效地減少對英特爾、英偉達等芯片制造商的依賴。擁有自己的硬件使谷歌能夠更快地進行實驗。
其次,新的TPU也為谷歌的云計算業務帶來額外收入,現在,谷歌云平臺(GCP)和谷歌的業務應用程序GSuite每季度可超過10億美元收入。
谷歌目前允許公司租用單個TPU板卡,今年晚些時候,將允許企業租用多個板卡,并連接成名為TPU pod的超級計算機網絡。后面谷歌會開源更多的 ML 模型。
此次開放讓TPU和TensorFlow軟硬結合,或將讓谷歌突破重圍,也將促使芯片格局生變,商用化進入快車道時期。那么一直以來我們的國產AI處理器產品,又將如何面對這一變局?
-
谷歌
+關注
關注
27文章
6195瀏覽量
106016 -
英偉達
+關注
關注
22文章
3848瀏覽量
91977
原文標題:重磅!谷歌宣布全面開放TPU,或將改寫GPU行業格局 | GGAI 頭條
文章出處:【微信號:ggservicerobot,微信公眾號:高工智能未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論