來源:谷歌黑板報
編者按: 以下是 Google CEO Sundar Pichai 在 Google I/O 2025 大會上的講話編輯稿,經(jīng)調(diào)整以包含更多在舞臺上宣布的內(nèi)容。
通常,在 I/O 大會的前幾周,我們不會透露太多信息,因為我們會把最重磅的模型留到大會上發(fā)布。但在 Gemini 時代,我們很可能在三月某個周二已經(jīng)推出最智能的模型,或者提前一周公布像 AlphaEvolve 這樣令人振奮的突破。
我們希望盡快將最出色的模型交付給大家,并盡快融入到我們的產(chǎn)品中。因此,我們的發(fā)布速度比以往任何時候都更快。
模型的持續(xù)迭代
模型的迅速發(fā)展令我尤為興奮。Elo 等級分,作為衡量模型進步的一項重要機制,自第一代模型 Gemini Pro 發(fā)布以來至今已經(jīng)提高了 300 多分。如今,Gemini 2.5 Pro 在 LMArena 排行榜的所有類別中都占據(jù)首位。
模型的進步得益于我們世界領(lǐng)先的基礎(chǔ)設(shè)施。我們第七代 TPU Ironwood,是首款專為大規(guī)模支持思考型和推理型 AI 工作負載而設(shè)計的。它的性能比上一代提升了 10 倍,每個 pod (計算單元) 的計算能力達到了令人難以置信的 42.5 exaflops——這簡直令人驚嘆。
正是我們深入到 TPU 的整體基礎(chǔ)設(shè)施的優(yōu)勢,幫助我們在模型價格顯著下降的同時,依然能夠交付速度更快、性能更為卓越的模型。我們一次又一次地以最具性價比的方式提供了最出色的模型。Google 不僅在帕累托前沿上保持領(lǐng)先,更從根本上拓展了這一前沿。
世界正在擁抱 AI
更多的智能正變得觸手可及,惠及每個人,遍及每個角落。全球各地也正在以前所未有的速度響應(yīng)、擁抱 AI。以下是一些重要的進展:
去年同期,我們通過不同產(chǎn)品和 API 每月處理 9.7 萬億個令牌。而現(xiàn)在,這一數(shù)字已超過 480 萬億——足足增長了 50 多倍。
超過 700 萬開發(fā)者正在利用 Gemini 進行構(gòu)建,比去年同期多了五倍。同時,Vertex AI 上 Gemini 的使用量增長了 40倍。
Gemini 應(yīng)用目前的月活躍用戶已超過 4 億。我們看到,尤其是 2.5 系列模型的使用增長強勁和用戶參與度很高。其中,Gemini 應(yīng)用中 2.5 Pro 的使用量更是增長了 45%。
從研究到現(xiàn)實
所有這些進展都昭示著我們正處于 AI 平臺轉(zhuǎn)變的新階段。這意味著幾十年的研究,如今正真正地成為世界各地的人們、企業(yè)和社區(qū)的現(xiàn)實。
Project Starline →Google Beam +語音翻譯
幾年前,我們在 I/O 大會上首次展示了 突破性的 3D 視頻技術(shù)——Project Starline,這項技術(shù)旨在創(chuàng)造身臨其境的感覺,即使相隔遙遠,也能讓人感覺置身同一房間。
我們持續(xù)取得技術(shù)進步。今天,我們將要介紹它的新篇章: Google Beam,一個全新的 AI 為先的視頻通信平臺。Beam 利用最先進的視頻模型,通過一個由六個攝像頭組成的陣列并結(jié)合 AI 技術(shù),將 2D 視頻流轉(zhuǎn)換為逼真的 3D 體驗,并融合視頻流在 3D 光場顯示器上呈現(xiàn)用戶形象。它實現(xiàn)了近乎完美的頭部追蹤,精確到毫米,并能以每秒 60 幀的速度實時呈現(xiàn)。最終呈現(xiàn)的是更自然、更具沉浸感的對話體驗。與惠普合作,首批 Google Beam 設(shè)備將于今年晚些時候向早期客戶發(fā)售。
多年來,我們還在 Google Meet 中創(chuàng)造更具沉浸感的體驗。這包括將一項通過語音翻譯幫助人們打破語言障礙的技術(shù)應(yīng)用于 Google Meet。它能近乎實時地匹配說話者的聲音、語調(diào),甚至表情,使跨語言交流更加自然流暢。英語和西班牙語的翻譯功能正在向 Google AI Pro 和 Ultra 訂閱者推出 Beta 版,更多語言將在未來幾周內(nèi)推出。今年,這項功能也將向 Workspace 企業(yè)客戶提供早期測試。
Project Astra → Gemini Live
另一個在 I/O 大會上首次亮相的令人興奮的研究項目是 Project Astra,它旨在探索一個能夠理解周圍世界的通用 AI 助手。現(xiàn)在,Gemini Live 已整合 Project Astra 的攝像頭和屏幕共享功能。人們正以有趣的方式使用它,從面試準備到馬拉松訓(xùn)練。這項功能已向所有 Android 用戶開放,并將于今天開始向 iOS 用戶推出。
我們還會將這些功能引入到搜索等產(chǎn)品中。
Project Mariner → Agent Mode
我們認為智能體 (agents) 是將高級 AI 模型的智能與工具調(diào)用能力相結(jié)合的系統(tǒng),因此它們可以在您的控制下代表您執(zhí)行操作。
我們的早期研究原型 Project Mariner,是智能體在計算機使用能力方面的早期嘗試,它可以與網(wǎng)絡(luò)互動并為您完成任務(wù)。我們在去年 12 月發(fā)布了它的早期研究原型。此后,我們在新的多任務(wù)處理能力方面取得了很大進展,并引入了一種名為 "教學(xué)與重復(fù)" 的方法,即您只需向它展示一次任務(wù),它就能學(xué)習(xí)計劃未來類似的任務(wù)。我們正在通過 Gemini API 將 Project Mariner 的計算機使用功能提供給開發(fā)者。像 Automation Anywhere 和 UiPath 這樣的受信任測試者已經(jīng)開始使用它進行開發(fā),今年夏天,它將在更大范圍內(nèi)推出。
智能體生態(tài)系統(tǒng)的蓬勃發(fā)展,需要我們構(gòu)建一套更廣泛的工具,而計算機使用是其中一部分。
例如,我們開放的 Agent2Agent 協(xié)議,旨在實現(xiàn)智能體之間的相互對話。此外,Anthropic 引入的模型上下文協(xié)議 (Model Context Protocol),則允許智能體訪問其他服務(wù)。今天,我們很高興地宣布,我們的 Gemini API 和 SDK 現(xiàn)已兼容 MCP 工具。
我們還開始將智能體功能引入 Chrome、搜索和 Gemini 應(yīng)用中。例如,Gemini 應(yīng)用中新增的 Agent Mode 將幫助您完成更多任務(wù)。如果您正在尋找公寓,它將幫助您在 Zillow 等網(wǎng)站上找到符合您條件的房源,調(diào)整過濾器,并使用 MCP 訪問房源,甚至為您安排看房。Gemini 應(yīng)用中 Agent Mode 的實驗版本將很快向訂閱者推出。這對 Zillow 這樣的公司來說非常有利,可以帶來新客戶并提高轉(zhuǎn)化率。
這是一個新興領(lǐng)域,我們很高興能探索如何最好地將智能體的益處更廣泛地帶給用戶和整個生態(tài)系統(tǒng)。
個性化的力量
將研究變?yōu)楝F(xiàn)實的最佳途徑,是讓它在您自己的現(xiàn)實生活中真正發(fā)揮作用。這正是個性化的強大之處。我們正在通過被稱為 "個人上下文" (personal context) 的技術(shù)來實現(xiàn)這一點。在您的許可下,Gemini 模型可以以私密、透明且完全由您控制的方式,在您的 Google 應(yīng)用中使用相關(guān)的個人上下文。
其中一個例子就是我們 Gmail 中新推出的個性化智能回復(fù) (Smart Replies)。如果您的朋友給您發(fā)郵件向你咨詢關(guān)于您過去旅行的建議,Gemini 可以搜索您過去的郵件和 Google Drive 中的文件,例如您在 Google Docs 中創(chuàng)建的行程,從而建議一個包含具體細節(jié)的回復(fù)。它將匹配您典型的問候語,捕捉您的語調(diào)、風(fēng)格甚至喜歡用的詞語,最終生成一個更貼切、更像您本人風(fēng)格的回復(fù)。個性化智能回復(fù)將于今年晚些時候向訂閱者提供。不難想象,個人上下文將在搜索、Gemini 等更多產(chǎn)品中發(fā)揮巨大的實用價值。
搜索中的 AI Mode
我們的 Gemini 模型正在助力 Google 搜索變得更智能、更具智能體能力、更個性化。
自去年推出以來,AI Overviews 已覆蓋超過 15 億用戶,目前已在 200 個國家和地區(qū)推出。隨著人們使用 AI Overviews,我們發(fā)現(xiàn)他們對結(jié)果更滿意,搜索頻率也更高。在我們最大的市場,如美國和印度,AI Overviews 功能使顯示該功能的查詢增長超過 10%,而且這種增長還在持續(xù)。
這無疑是搜索過去十年中最成功的發(fā)布之一。
對于那些希望獲得端到端 AI 搜索體驗的用戶,我們正在推出全新的 AI Mode。這是對搜索的徹底重塑。憑借更高級的推理能力,您可以使用 AI Mode 提出更長、更復(fù)雜的查詢。事實上,早期測試者提出的查詢長度是傳統(tǒng)搜索的兩到三倍,而且您可以進一步提出后續(xù)問題。這將作為新標簽頁直接在搜索中提供。
我一直在大量使用它,它完全改變了我使用搜索的方式。我很高興地宣布,AI Mode 將從今天開始在美國向所有用戶推出。憑借我們最新的 Gemini 模型,我們 AI 回復(fù)的質(zhì)量和準確性達到了您對搜索的期望,并且是業(yè)內(nèi)最快的。從本周開始,Gemini 2.5 也將登陸美國地區(qū)的搜索。
推進我們最智能的模型:Gemini 2.5
我們強大高效的主力模型 Gemini 2.5 Flash 憑借其速度和低成本深受開發(fā)者歡迎。新版 2.5 Flash 在幾乎所有方面都得到了改進,在推理、多模態(tài)、代碼和長上下文等關(guān)鍵基準測試中均有提升。它在 LMArena 排行榜上僅次于 2.5 Pro。
我們正在通過引入一種我們稱之為 Deep Think 的增強推理模式,使 2.5 Pro 變得更強大。它運用了我們在思維和推理方面的最新前沿研究,包括并行思維技術(shù)。
更個性化、更主動、更強大的
Gemini 應(yīng)用
我們正在讓 Deep Research 更具個性化,允許您上傳自己的文件,并很快連接到 Google Drive 和 Gmail,從而增強其生成定制化研究報告的能力。我們還將其與 Canvas 集成,點擊一下即可創(chuàng)建動態(tài)信息圖表、測驗,甚至多種語言的播客。除此之外,我們欣喜地看到 Canvas 在氛圍編程 (vibe coding) 方面被廣泛采用,這讓更多人只需通過與 Gemini 聊天,就能輕松創(chuàng)建功能性應(yīng)用。
對于深受用戶喜愛的 Gemini Live 功能,我們正在免費向所有人開放攝像頭和屏幕共享功能,包括 iOS 用戶。未來,它還將很快連接到您喜愛的 Google 應(yīng)用,提供更無縫的幫助。
我們在生成式媒體模型方面的進展
我們推出了我們最新最先進的視頻模型 Veo 3,它現(xiàn)在具備了原生音頻生成功能。同時,我們還推出了 Imagen 4,我們最新最強大的圖像生成模型。這兩款模型都可以在 Gemini 應(yīng)用中使用,為創(chuàng)意開啟了一個全新的世界。
我們還將這些可能性帶給電影制作人,推出了一款名為 Flow 的新工具。您可以使用它創(chuàng)建電影片段,并將短片擴展為更長的場景。
改善生活的機會
AI 帶來的機遇確實影響深遠。確保其惠及盡可能多的人,將取決于我們這一代開發(fā)者、技術(shù)專家和致力于解決問題的人。尤其令人振奮的是,想到我們今天正在進行的各項研究——從機器人技術(shù)到量子計算、AlphaFold 再到 Waymo——都將成為未來現(xiàn)實的基石。
我深知改善生活的機遇來之不易。最近的一次親身經(jīng)歷,更是讓我對此有了更深刻的感觸。當時,我和我的父母在舊金山。他們做的第一件事,就是想體驗一下 Waymo。我這才了解到,這正逐漸成為當?shù)刈钍軞g迎的旅游項目之一。我以前也坐過 Waymo,但我 80 多歲的父親完全被震撼了;那一刻,我對這項進步有了全新的體悟。
這提醒了我,技術(shù)擁有令人難以置信的力量,能夠激勵、震撼并推動我們前進。我迫不及待地想看到我們接下來將共同創(chuàng)造的精彩。
-
Google
+關(guān)注
關(guān)注
5文章
1785瀏覽量
58623 -
AI
+關(guān)注
關(guān)注
87文章
33999瀏覽量
275004 -
模型
+關(guān)注
關(guān)注
1文章
3479瀏覽量
49927
原文標題:Google I/O 2025: 從研究到現(xiàn)實
文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
極海半導(dǎo)體邀您相約2025世界無人機大會
谷歌I/O 2025大會前透露:Android 16接入Gemini,智能手機、XR設(shè)備升級

安波福出席ServiceNow Knowledge 2025大會
Google Cloud Next 2025大會亮點回顧
NVIDIA GTC 2025大會即將啟幕
“開放·連接 ”2025玄鐵 RISC-V 生態(tài)大會議程公布!
I/O接口與I/O端口的區(qū)別
Nullmax 2025新春員工大會暨表彰大會圓滿舉辦
請問TXB0108PWR在上電瞬間I/O會處于什么狀態(tài)?
Google I/O 2024大會回顧
高燃回顧|第三屆OpenHarmony技術(shù)大會精彩瞬間
物聯(lián)網(wǎng)中常見的I/O擴展電路設(shè)計方案_IIC I/O擴展芯片

評論