日前,來自谷歌、百度、英特爾、AMD、哈佛大學與斯坦福大學聯合發布了新型基準測試工具 MLPerf。這款獲得 AI 技術大佬吳恩達和谷歌機器學習領頭羊 Jeff Dean 力薦的工具專門用于測量機器學習軟件與硬件的執行速度,它的到來代表著原本市場規模較為有限的 AI 性能比較方案正式踏上發展正軌。簡而言之就是:以后各大公司發布的 AI 性能對比不能再王婆賣瓜自賣自夸了。
上周,RiseML 博客對谷歌 TPUv2 與英偉達 V100 進行了比較。如今,英特爾公司發布了另一篇博文,其中提到在利用 RNN 進行機器翻譯數據處理時,“英特爾 Xeon Scalable 處理器的 AWS Sockeye(https://github.com/awslabs/sockeye )神經機器翻譯模型性能可達英偉達 V100 的 4 倍?!?/p>
很長一段時間以來,業界對 AI 基準測試需求的現實意義展開了激烈的探討與爭論。支持者們認為,基準測試工具的缺失嚴重限制了 AI 技術的實際應用。
根據 AI 技術先驅吳恩達在 MLPerf 聲明中的說法,“AI 正在給各個行業帶來改變,但為了充分這項技術的真正潛力,我們仍然需要更快的硬件與軟件?!蔽覀儺斎幌M@得更強大的資源平臺,而基準測試方案的標準化進程將幫助 AI 技術開發人員創造出此類產品,從而幫助采用者更明智地選擇適合需求的 AI 選項。
不止吳恩達,連谷歌機器學習大佬 Jeff Dean 也在推特上強烈推薦這款工具:
大意:谷歌很高興和斯坦福、伯克利、哈佛、百度、英特爾、AMD 等等企業一起,成為致力于將 MLPerf 作為衡量機器學習性能的通用標準的組織之一。
MLPerf 項目的主要目標包括:
通過公平且實用的衡量標準加快機器學習發展進程。
對各競爭系統進行公平比較,同時鼓勵創新以改善業界領先的機器學習技術。
保持基準測試的成本合理性,允許所有人參與其中。
為商業及研究社區提供服務。
提供可重復且可靠的測試結果。
對 AI 性能(包括 h/w 與 s/w 兩種方向)的比較此前一直由各既得利益方發布,此次英特爾公司題為《利用英特爾至強 Scalable 處理器實現令人驚艷的推理性能》的博文正是最好的例子。
這里我們并不針對英特爾——但必須承認,此類比較雖然包含重要見解,但通常也會通過故意設計確保某一供應商的方案表現優于其競爭對手。因此,標準化基準測試的存在將徹底解決這種中立性缺失,從而提供公平且客觀的比較結果。
MLPerf 項目的定位參考了以往的類似方案,例如 SPEC(即標準性能評估集團)。MLPerf 項目聲明指出,“SPEC 基準測試的出現顯著推動了通用計算能力的改進。SPEC 由計算機公司聯盟于 1988 年推出,并在接下來的 15 年內實現了年均 1.6 倍的 CPU 性能提升。MLPerf 結合有原有基準測試領域的最佳實踐,包括 SPEC 使用的程序套件、SOR 使用的性能與創新性分別比較方法、DeepBench 的生產環境內軟件部署以及 DAWNBench 的時間精確性度量標準等等?!?/p>
Intersect360 Research 公司 CEO Addison Snell 指出,“AI 已經成為目前眾多企業不可忽視的技術力量,因此任何中立性質的基準指導結論都非常重要——特別是在挑選競爭性技術方案的場景之內。然而,AI 同時也是一類多元化領域,因此隨著時間的推移,任何基準都有可能發展成惟一的主導性選項。五年之前,大數據與分析技術鼓動了整個科技業界的熱情 ; 然而時至今日,這一領域仍未出現一種統一的通用基準。我認為 AI 領域可能也會發生同樣的情況。”
Hyperion Research 公司高級研究副總裁 Steve Conway 表示,MLPerf 代表著“積極且實用的”一步,“因為多年以來買賣雙方一直缺少必要的基準方案,用以證明不同 AI 產品與解決方案之間的差異。
原有基準的存在僅僅是為了解決早期 AI 發展階段中的有界類實際問題。而隨著無界類 AI 問題數量的快速增加,我們顯然需要額外的基準工具對其進行評估,這一點在經濟層面極為重要。所謂有限問題通常比較簡單,例如語音與圖像識別或游戲 AI 等等。而無界類問題則包括診斷癌癥與閱讀醫學影像內容等,其目標在于真正為復雜的問題提供建議與決策。”
MLPerf 目前已在 GitHub 上發布,但仍處于早期開發階段。正如 MLPerf 聲明當中所強調,“目前的版本尚屬于‘前 apha’階段,因此在很多方面仍然有待改進。基準測試套件仍在開發與完善當中,請參閱以下建議部分以了解如何參與項目貢獻。根據用戶的反饋,我們預計 5 月底將會對項目進行一輪重大更新?!?/p>
目前,MLPerf 套件中的七項基準測試皆已提供參考實現方案(摘自 GitHub):
圖像分類– Resnet-50 v1,適用于 ImageNet。
對象檢測– Mask R-CNN,適用于 COCO。
語音識別– DeepSpeech2,適用于 Librispeech。
翻譯– Transformer,適用于 WMT English-German。
推薦– Neural Collaborative Filtering,適用于 MovieLens 20 Million (簡稱 ml-20m)。
情緒分析– Seq-CNN,適用于 IMDB 數據集。
強化– Mini-go,適用于預測游戲行動。
每套參考實現皆提供以下內容:在至少一套框架當中實現模型的相關代碼,一個可在容器內運行基準測試的 Dockerfile,一個用于下載對應數據集的腳本,一個負責運行模型訓練并加以計時的腳本,外加關于數據集、模型以及機器設置的說明文檔。
根據 GitHub 頁面中的說明,此基準測試已經在以下設備配置中完成驗證:
16 CPU,單個英偉達 P100。
Ubuntu 16.04,包括支持英偉達硬件的 Docker。
600 GB 磁盤(實際上,大多數基準測試并不需要這么大的存儲容量)。
我們期待看到 AI 行業最終會迎來怎樣的基準測試前景——少數壟斷,還是百家爭鳴。在這樣一個年輕的市場當中,相信會有很多廠商提供基準測試工具與服務。斯坦福大學就是 MLPerf 項目成員,其最近剛剛發布了首個 DAWNBench v1 深度學習測試結果。
斯坦福大學報告稱:“2018 年 4 月 20 日,第一個深度學習端到端基準測試與性能衡量競賽正式啟動,旨在記錄普通深度學習任務達到最高準確度水平所需的時間和成本,以及達到此最高推理準確度水平的延遲和成本。專注于端到端性能,意味著我們提供一種更為客觀的方法,可用于對不同計算框架、硬件、優化算法、超參數設置以及影響實際性能的其它因素進行標準化比較?!?/p>
作為參賽選手之一,fast.ai——一家年輕的人工智能訓練與人工智能軟件工具開發公司——取得了出色的成績。這些基準結果非常重要,斯坦福大學也確實在以嚴肅的態度對待此輪競賽。但除此之外,目前我們顯然還需要更多與之類似的客觀、公平的比較平臺。在這方面,MLPerf 的出現應該能夠幫助我們早日突破困局,真正有理有據地選擇最適合實際需求的 AI 解決方案。
-
谷歌
+關注
關注
27文章
6203瀏覽量
106090 -
機器學習
+關注
關注
66文章
8446瀏覽量
133123 -
深度學習
+關注
關注
73文章
5518瀏覽量
121608 -
MLPerf
+關注
關注
0文章
35瀏覽量
650
原文標題:機器學習基準大戰:谷歌、百度、斯坦福等聯手打造新基準MLPerf
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論