AI 簡報 20230616 期
1. AMD硬剛英偉達,推出Instinct MI300,單芯片可運行800億參數
原文:https://mp.weixin.qq.com/s/NeSIBtjZ71evn09NPEAc2Q美國時間本周二,AMD舉行了重磅發布會,推出了一款全新的人工智能GPU Instinct MI300,并表示這款處理器將于今年晚些時候開始向部分客戶發貨。自英偉達發布了AI芯片后,便徹底帶動了市場的投資熱情,也推動英偉達登上萬億美元市值的高峰。此次AMD發布重磅AI芯片,有望對英偉達當前的市場地位形成一定沖擊。AMD推出高性能AI芯片在這次AMD的新品發布會中,核心產品無疑是用于訓練大模型的GPU Instinct MI300。早在今年初,AMD便已經宣布了新一代Instinct MI300,是全球首款同時集成CPU、GPU的數據中心APU。如今,這款芯片的名字變成了Instinct MI300A,而純GPU產品則命名為Instinct MI300X。據AMD的CEO蘇姿豐透露,MI300A是全球首個為AI和HPC(高性能計算)打造的APU加速卡,擁有13個小芯片,總共包含1460億個晶體管,24個Zen 4 CPU核心,1個CDNA 3圖形引擎和128GB HBM3內存。相比前代MI250,MI300的性能提高八倍,效率提高五倍。AMD在發布會稍早介紹,新的Zen 4c內核比標準的Zen 4內核密度更高,比標準Zen 4的內核小35%,同時保持100%的軟件兼容性。而GPU MI300X更是本次發布會的重點,這款芯片是AMD針對大語言模型優化的版本,該產品的晶體管數量達到1530億個,內存達到了192GB,內存帶寬為5.2TB/s,Infinity Fabric帶寬為896GB/s。對比英偉達的H100,MI300X提供的HBM(高帶寬內存)密度約為H100的2.4倍,HBM帶寬是1.6倍。這意味著AMD的這款產品可以運行比英偉達H100更大的模型,在現場AMD演示了MI300X運行400億參數的Falcon模型,而OpenAI的GPT-3模型有1750億個參數。蘇姿豐還用Hugging Face基于MI300X的大模型寫了一首關于活動舉辦地舊金山的詩。這也是全球首次在單個GPU上運行這么大的模型,據AMD介紹,單個MI300X可以運行一個參數多達800億的模型。而在未來隨著AI模型越來越大,意味著需要更多GPU來運行最新的大模型,而AMD芯片上內存的增加,意味著開發人員不需要那么多GPU,可以為用戶節省大量成本。蘇姿豐表示,MI300X將于今年第三季度向一些客戶提供樣品,并于第四季度量產。同時AMD還發布了AMD Instinct Platform,集合了8個MI300X,可提供總計1.5TB的HBM3內存。對標英偉達的CUDA,AMD也介紹了自身的芯片軟件ROCm,AMD總裁Victor Peng稱,在構建強大的軟件堆棧方面,AMD取得了真正的巨大進步,ROCm軟件棧可與模型、庫、框架和工具的開放生態系統配合使用。之所以將重心放在AI芯片,也是因為AMD非常看好未來的AI市場。蘇姿豐認為,數據中心人工智能加速器的潛在市場總額將從今年的300億美元增長到2027年的1500億美元以上。硬剛英偉達,但尚未透露大客戶從AMD所介紹的產品性能來看,將成為當下AI市場的有力競爭者,尤其在ChatGPT等生成式AI的帶動下,市場對高性能GPU需求旺盛。不過當前市場中,英偉達處于絕對優勢,占據80%的市場。而AMD并沒有公布這款GPU的具體價格,但是對比英偉達H100價格大多在3萬美元以上,如果MI300X價格能夠更加實惠,將顯著的對英偉達產品造成沖擊,并有助于降低生成式AI的研發成本。有意思的是,在如此強勁的性能面前,市場卻似乎并不買單。截至當日收盤,AMD股價反而下降了3.61%,市值來到2000億元關口。而英偉達股價則拉升了3.9%,總市值達到1.01萬億美元,是AMD的五倍。此次AMD并未透露哪些公司會采用MI300X或簡配版MI300A,而在此前的發布會中,AMD都會披露新產品的大客戶。這可能讓市場認為,目前并沒有大客戶為這款芯片買單。另一方面,AMD并沒有透露新款AI芯片的具體售價,但想要有顯著的成本優勢可能不太現實,因為高密度的HBM價格昂貴。即便MI300X的內存達到了192GB,但這也不是顯著優勢,因為英偉達也擁有相同內存規格的產品。更重要的原因在于,MI300并不具備H100所擁有的Transformer Engine。Transformer Engine能夠用于加速Transformer模型,以在AI的訓練和推理中以較低的內存利用率提供更好的性能。有分析師認為,如果訓練一個新的模型,需要投入數千個GPU,并耗費一年的時間,那么幾乎不會有人會浪費2-3年或者投入3倍數量的GPU。而Transformer Engine能夠讓大模型實現三倍的性能表達。盡管市場中認為,AMD的MI300芯片應該是除了谷歌的TPU之外,能與英偉達在AI訓練端上匹敵的產品。成為當前大企業在訓練AI大模型時,除了英偉達之外的另一個重要選擇。但想要在短時間內挑戰英偉達,顯然還是比較困難的。就如AMD總裁VictorPeng說的那樣,“盡管這是一個過程,但我們在構建強大的軟件堆棧方面取得了很大進展,該軟件堆棧與開放的模型、庫、框架和工具生態系統兼容。”無論如何需要市場中有大客戶切實的使用AMD新款芯片。小結AMD此次重磅發布的MI300系列芯片,無疑為AI市場注入了一劑強心針,不僅預示著AMD在持續看好未來的AI市場,也將表明AMD將在這一市場中與英偉達正面競爭。至少對于相關企業及用戶而言,有更多的選擇是一件好事。
2. 價格最高降75%、API函數調用上線、上下文長度提高4倍,OpenAI凌晨再給ChatGPT、GPT-4加碼!
原文:https://mp.weixin.qq.com/s/GcsAk_qqqWfwck4KSdvJew就在今天凌晨,OpenAI 馬不停蹄地又雙叒叕更新啦!這一次,不僅重磅升級了 ChatGPT 背后的 GPT-3.5-turbo 模型、以及最先進的 GPT-4 文本生成模型,而且大幅降低了價格,另外還為 gpt-3.5-turbo 提供 16000 個 Token 的語境窗口(Context Window)上下文選項。更新速覽詳細來看,在今天的更新中,OpenAI 主要聚焦在下面幾個維度:
- 全新的 16k 上下文 GPT-3.5-Turbo 模型版本(今天向所有人提供)
- 升級版的 GPT-4 和 GPT-3.5-Turbo 模型
- Chat Completions API 中的新函數調用功能
- 最先進的 V2 嵌入模型降價 75%
- gpt-3.5-turbo 的輸入 Token 成本降低 25%
- 宣布 gpt-3.5-turbo-0301 和 gpt-4-0314 模型的淘汰時間表
- GPT-4 的 API 權限將開放給更多的人


- 創建聊天機器人,通過調用外部工具(例如,像 ChatGPT 插件)來回答問題
- 將自然語言轉換為 API 調用或數據庫查詢
- 從文本中提取結構化數據


3. Altman、Hinton 中國首秀:GPT 終將過時,AI 是當今世界最迫切的問題!
原文:https://mp.weixin.qq.com/s/TsjS-2b-UEE7zsWLA2f7AAOpenAI、DeepMind 和 Stability AI 的科學家科普 AI 治理,Google、Meta 和微軟的領航人物共論開源未來,圖靈獎得主與斯坦福、UC Berkeley、MIT 的教授展開學術辯論——這描述的并不是遠在大洋彼岸的 NeurIPS 或 ACL 會議,而是由中國智源研究院主辦的年度盛會:北京智源大會。今年的北京智源大會于 6 月 9-10 日召開,20 場論壇、100 場報告、頂尖的專家、頂尖的觀眾,匯聚了 AI 領域純粹、專業的前沿思想。OpenAI 創始人 Sam Altman 以及“深度學習三巨頭”中的兩位 Yann LeCun 與 Geoffrey Hinton 現身于分論壇視頻連線的大熒幕上,Max Tegmark 與 Stuart Russell 等來自頂尖學府的教授親赴現場。CSDN 在現場參加了這場為時兩天的 AI 盛會。科技大咖智聚京城,共論當前 AI 領域最前沿的爭議焦點:
- 對 AI 保持樂觀主義的 Yann LeCun,認為 AI 還遠遠未發展到還需要操心的程度。GPT 終將過時,未來的 AI 會面臨三大挑戰,解決后將能訓練出「世界模型」(World Model)。
- 曾用一份“暫停 6 個月 AI 研究”的公開信震驚業界的 Max Tegmark 教授則表示,罔顧 AI 的最壞結果將會是人類滅絕。對齊問題將是學術界接下來的一大難題:如此龐大而復雜的智能模型,要怎樣才能保持和人類同一水準的價值觀和道德觀?
- 一亮相便轟動北京會場的 Sam Altman,則發表了一份真誠的呼吁:國際科技界需要團結一心,攜手促進 AGI 安全的透明化,為未來十年內誕生的“超級智能”做好準備。
- 學術界還有一部分人,對這些圍繞 GPT 的話題并不買賬,而是關心更深遠的 AI 話題。Stuart Russell 教授直言,目前的大語言模型缺乏「內部目標」,而人類也不理解它們的“黑匣子”里都發生了什么。
- Geoffrey Hinton 則帶來了一場精彩絕倫的謝幕演講:“超級智能”已成雛形,但人類尚未給它建立道德準則——現在為時不晚。
- AGI 可能很快會出現,超級智能在未來十年內可能會成為現實。
- 目前已經取得了一些全球合作的突破,但全球合作仍然面臨困難。
- AI 安全性的研究是一個復雜的問題,需要考慮多個因素,并需要大量的投入,希望中國和美國的研究人員能做出貢獻。
- 當被問及是否打算重新開放 GPT 的源代碼時,Altman 表示已經作出了一定的努力,未來將會有許多開源大模型誕生。但開源模型在 AI 發展中起了重要作用,當模型變得更大時,就更需要謹慎安全問題。
- 楊立昆即將參加一個辯論,與 Joshua Bengio、Max Tegmark 和 Melanie Mitchell 討論人工智能是否會威脅人類生存。
- Max Tegmark 和 Joshua Bengio 認為強大的人工智能系統可能對人類構成風險,而楊立昆和 Melanie Mitchell 則持相反觀點。
- 楊立昆指出,他并不是想說“AI 完全不存在風險”,而是認為“目前的 AI 風險可以被謹慎的工程設計減輕或抑制”。
- 楊立昆表示自己不能預測超級智能在未來能造成多大的影響,因為超級智能尚未問世。他舉了一個例子:如果你去問一個 1930 年的航空工程師,“我該如何確保渦輪噴氣發動機的安全可靠性?”那他肯定答不出來,因為渦輪噴氣發動機在 1930 年還沒被發明出來。
4. CVPR23|清華大學提出LiVT:用視覺Transformer學習長尾數據,解決不平衡標注數據不在話下
原文:https://mp.weixin.qq.com/s/1MfOWcE9x7Vk7tP2n1V4bg背景在機器學習領域中,學習不平衡的標注數據一直是一個常見而具有挑戰性的任務。近年來,視覺 Transformer 作為一種強大的模型,在多個視覺任務上展現出令人滿意的效果。然而,視覺 Transformer 處理長尾分布數據的能力和特性,還有待進一步挖掘。目前,已有的長尾識別模型很少直接利用長尾數據對視覺 Transformer(ViT)進行訓練。基于現成的預訓練權重進行研究可能會導致不公平的比較結果,因此有必要對視覺 Transformer 在長尾數據下的表現進行系統性的分析和總結。

論文鏈接:https://arxiv.org/abs/2212.02015代碼鏈接:https://github.com/XuZhengzhuo/LiVT本文旨在填補這一研究空白,詳細探討了視覺 Transformer 在處理長尾數據時的優勢和不足之處。本文將重點關注如何有效利用長尾數據來提升視覺 Transformer 的性能,并探索解決數據不平衡問題的新方法。通過本文的研究和總結,研究團隊有望為進一步改進視覺 Transformer 模型在長尾數據任務中的表現提供有益的指導和啟示。這將為解決現實世界中存在的數據不平衡問題提供新的思路和解決方案。文章通過一系列實驗發現,在有監督范式下,視覺 Transformer 在處理不平衡數據時會出現嚴重的性能衰退,而使用平衡分布的標注數據訓練出的視覺 Transformer 呈現出明顯的性能優勢。相比于卷積網絡,這一特點在視覺 Transformer 上體現的更為明顯。另一方面,無監督的預訓練方法無需標簽分布,因此在相同的訓練數據量下,視覺 Transformer 可以展現出類似的特征提取和重建能力。基于以上觀察和發現,研究提出了一種新的學習不平衡數據的范式,旨在讓視覺 Transformer 模型更好地適應長尾數據。通過這種范式的引入,研究團隊希望能夠充分利用長尾數據的信息,提高視覺 Transformer 模型在處理不平衡標注數據時的性能和泛化能力。文章貢獻本文是第一個系統性的研究用長尾數據訓練視覺 Transformer 的工作,在此過程中,做出了以下主要貢獻:首先,本文深入分析了傳統有監督訓練方式對視覺 Transformer 學習不均衡數據的限制因素,并基于此提出了雙階段訓練流程,將視覺 Transformer 模型內在的歸納偏置和標簽分布的統計偏置分階段學習,以降低學習長尾數據的難度。其中第一階段采用了流行的掩碼重建預訓練,第二階段采用了平衡的損失進行微調監督。





5. LeCun世界模型首項研究來了:自監督視覺,像人一樣學習和推理,已開源
原文:https://mp.weixin.qq.com/s/A_MmOIOQ08SzWntpd6VYGg去年初,Meta 首席 AI 科學家 Yann LeCun 針對「如何才能打造出接近人類水平的 AI」提出了全新的思路。他勾勒出了構建人類水平 AI 的另一種愿景,指出學習世界模型(即世界如何運作的內部模型)的能力或許是關鍵。這種學到世界運作方式內部模型的機器可以更快地學習、規劃完成復雜的任務,并輕松適應不熟悉的情況。LeCun 認為,構造自主 AI 需要預測世界模型,而世界模型必須能夠執行多模態預測,對應的解決方案是一種叫做分層 JEPA(聯合嵌入預測架構)的架構。該架構可以通過堆疊的方式進行更抽象、更長期的預測。6 月 9 日,在 2023 北京智源大會開幕式的 keynote 演講中,LeCun 又再次講解了世界模型的概念,他認為基于自監督的語言模型無法獲得關于真實世界的知識,這些模型在本質上是不可控的。今日,Meta 推出了首個基于 LeCun 世界模型概念的 AI 模型。該模型名為圖像聯合嵌入預測架構(Image Joint Embedding Predictive Architecture, I-JEPA),它通過創建外部世界的內部模型來學習, 比較圖像的抽象表示(而不是比較像素本身)。I-JEPA 在多項計算機視覺任務上取得非常不錯的效果,并且計算效率遠高于其他廣泛使用的計算機視覺模型。此外 I-JEPA 學得的表示也可以用于很多不同的應用,無需進行大量微調。


通過自監督學習獲取常識型知識I-JEPA 基于一個事實,即人類僅通過被動觀察就可以了解關于世界的大量背景知識,這些常識信息被認為是實現智能行為的關鍵。通常,AI 研究人員會設計學習算法來捕獲現實世界的常識,并將其編碼為算法可訪問的數字表征。為了高效,這些表征需要以自監督的方式來學習,即直接從圖像或聲音等未標記的數據中學習,而不是從手動標記的數據集中學習。在高層級上,JEPA 的一個輸入中某個部分的表征是根據其他部分的表征來預測的。同時,通過在高抽象層次上預測表征而不是直接預測像素值,JEPA 能夠直接學習有用的表征,同時避免了生成模型的局限性。相比之下,生成模型會通過刪除或扭曲模型輸入的部分內容來學習。然而,生成模型的一個顯著缺點是模型試圖填補每一點缺失的信息,即使現實世界本質上是不可預測的。因此,生成模型過于關注不相關的細節,而不是捕捉高級可預測的概念。
- 論文地址:https://arxiv.org/pdf/2301.08243.pdf
- GitHub 地址:https://t.co/DgS9XiwnMz




6. 視頻版Midjourney免費開放,一句話拍大片!網友:上一次這么激動還是上次了
https://mp.weixin.qq.com/s/Eeuea9l_iQ87eMghCIHpMQ家人們,現在做個影視級視頻,也就是一句話的事了!例如只需簡單輸入“叢林(Jungle)”,大片鏡頭便可立刻呈現:而且圍繞著“叢林”變換幾個搭配的詞語,比如“河流”、“瀑布”、“黃昏”、“白天”等,這個AI也能秒懂你的意思。還有下面這些自然美景、宇宙奇觀、微觀細胞等高清視頻,統統只需一句話。這就是Stable Diffusion和《瞬息全宇宙》背后技術公司Runway,出品的AI視頻編輯工具Gen2。而且就在最近,一個好消息突然襲來——Gen2可以免費試用了!這可把網友們開心壞了,紛紛開始嘗鮮了起來。體驗Gen2實錄如此好玩的技術,我們當然也要親手體驗上一番。例如我們給Gen2投喂了一句中文:
上海外灘夜景,影視風格。
一個航拍視角的視頻片段便立即被做了出來。如果想讓視頻的風格變換一下,也可以上傳一張圖片,例如我們用的是一張賽博朋克風格的城市照片。
目前Runway官網可免費體驗Gen2的功能是文生視頻(Text to Video),但Gen1也開放了視頻生視頻(Video to Video)的功能。例如一個國外小哥可能受《瞬息全宇宙》的啟發,憑借Gen1也玩了一把更刺激的穿越。他先是在家錄了一段打響指的視頻,然后“啪的一下”,瞬間讓自己步入歐洲皇室貴族的“片場”:
更多內容請查閱源文檔。
7. 分割一切模型(SAM)的全面綜述調研
https://mp.weixin.qq.com/s/39imonlyIdSHYW9VnQhOjw人工智能(AI)正在向 AGI 方向發展,這是指人工智能系統能夠執行廣泛的任務,并可以表現出類似于人類的智能水平,狹義上的 AI 就與之形成了對比,因為專業化的 AI 旨在高效執行特定任務。可見,設計通用的基礎模型迫在眉睫。基礎模型在廣泛的數據上訓練,因而能夠適應各種下游任務。最近 Meta 提出的分割一切模型(Segment Anything Model,SAM)突破了分割界限,極大地促進了計算機視覺基礎模型的發展。SAM 是一個提示型模型,其在 1100 萬張圖像上訓練了超過 10 億個掩碼,實現了強大的零樣本泛化。許多研究人員認為「這是 CV 的 GPT-3 時刻,因為 SAM 已經學會了物體是什么的一般概念,甚至是未知的物體、不熟悉的場景(如水下、細胞顯微鏡)和模糊的情況」,并展示了作為 CV 基本模型的巨大潛力。為了充分了解 SAM,來自香港科技大學(廣州)、上海交大等機構的研究者對其進行了深入研究并聯合發表論文《 A Comprehensive Survey on Segment Anything Model for Vision and Beyond 》。

論文鏈接:https://arxiv.org/abs/2305.08196作為首個全面介紹基于 SAM 基礎模型進展的研究,該論文聚焦于 SAM 在各種任務和數據類型上的應用,并討論了其歷史發展、近期進展,以及對廣泛應用的深遠影響。本文首先介紹了包括 SAM 在內的基礎模型的背景和術語,以及對分割任務有重要意義的最新方法;然后,該研究分析并總結了 SAM 在各種圖像處理應用中的優勢和限制,包括軟件場景、真實世界場景和復雜場景,重要的是,該研究得出了一些洞察,以指導未來的研究發展更多用途廣泛的基礎模型并改進 SAM 的架構;最后該研究還總結了 SAM 在視覺及其他領域的應用。下面我們看看論文具體內容。SAM 模型概覽SAM 源自于 2023 年 Meta 的 Segment Anything (SA) 項目。該項目發現在 NLP 和 CV 領域中出現的基礎模型表現出較強的性能,研究人員試圖建立一個類似的模型來統一整個圖像分割任務。然而,在分割領域的可用數據較為缺乏,這與他們的設計目的不同。因此,如圖 1 所示,研究者將路徑分為任務、模型和數據三個步驟。





———————End———————
RT-Thread線下入門培訓
7月 - 上海,南京
1.免費2.動手實驗+理論3.主辦方免費提供開發板4.自行攜帶電腦,及插線板用于筆記本電腦充電5.參與者需要有C語言、單片機(ARM Cortex-M核)基礎,請提前安裝好RT-Thread Studio 開發環境
報名通道
立即掃碼報名
(報名成功即可參加)
掃碼添加rtthread2020可參加活動可加微信拉進活動現場微信群
主辦單位
報名鏈接:https://jinshuju.net/f/UYxS2k
點擊閱讀原文,進入RT-Thread 官網
原文標題:【AI簡報20230616】英偉達推出Instinct MI300、OpenAI凌晨再給ChatGPT、GPT-4加碼!
-
RT-Thread
+關注
關注
32文章
1396瀏覽量
41781
原文標題:【AI簡報20230616】英偉達推出Instinct MI300、OpenAI凌晨再給ChatGPT、GPT-4加碼!
文章出處:【微信號:RTThread,微信公眾號:RTThread物聯網操作系統】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
擺脫依賴英偉達!OpenAI首次轉向使用谷歌芯片
OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖
OpenAI即將發布GPT-4.5與GPT-5
OpenAI即將推出GPT-5模型
AMD將DeepSeek-V3模型集成至Instinct MI300X GPU
消息稱AMD Instinct MI400 AI加速器將配備8個計算芯片
AMD集成DeepSeek-V3模型至Instinct MI300X GPU
OpenAI將發布更智能GPT模型及AI智能體工具
英偉達GB300 AI服務器訂單配置初定
IBM與AMD攜手將在IBM云上部署AMD Instinct MI300X加速器
OpenAI調整硬件戰略:2026年起將自研AI芯片
解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內支付方法)
Llama 3 與 GPT-4 比較
三星首度引入AMD MI300X,緩解AI GPU短缺
OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

評論