3 月14日晚,OpenAI 宣布發(fā)布 GPT-4。
此次的 GPT4.0 產(chǎn)品具備多模態(tài), 相比于 GPT-3.5,GPT4.0 新增視頻功能,并且能夠適用于所有語言。GPT-4.0 有 望加速 AIGC 的應(yīng)用普及,并且在視頻內(nèi)容生成方面大放異彩,AIGC 有望步入快 速發(fā)展階段,背后大幅增長的訓(xùn)練參數(shù)量有望加速 AI 算力的建設(shè)以及高速光通信 的需求。OpenAI 發(fā)布了一項(xiàng)新服務(wù),允許開發(fā)人員直接使用 ChatGPT,并且將使 用價(jià)格削減了 90%,此次大規(guī)模降價(jià)意味著底層技術(shù)平臺的優(yōu)化,這也將進(jìn)一步 加速此項(xiàng)技術(shù)的大規(guī)模商業(yè)化進(jìn)程。
而且 GPT-4 是多模態(tài)的,同時(shí)支持文本和圖像輸入功能。此外,GPT-4 比以前的版本“更大”,這意味著其已經(jīng)在更多的數(shù)據(jù)上進(jìn)行了訓(xùn)練,并且在模型文件中有更多的權(quán)重,這也使得它的運(yùn)行成本更高。
GPT-4 在一系列基準(zhǔn)測試中的表現(xiàn)優(yōu)于 GPT-3.5
OpenAI 稱它使用了微軟 Azure 來訓(xùn)練模型,但沒有公布有關(guān)具體模型大小或用于訓(xùn)練它的硬件的詳細(xì)信息。
據(jù)悉,GPT-4 參加了多種基準(zhǔn)考試測試,包括美國律師資格考試 Uniform Bar Exam、法學(xué)院入學(xué)考試 LSAT、“美國高考”SAT 數(shù)學(xué)部分和證據(jù)性閱讀與寫作部分的考試,在這些測試中,它的得分高于 88% 的應(yīng)試者。
OpenAI 表示,已經(jīng)與多家公司合作,要將 GPT-4 結(jié)合到他們的產(chǎn)品中,包括 Duolingo、Stripe 和 Khan Academy。GPT-4 模型也將以 API 的形式,提供給付費(fèi)版 ChatGPT Plus 的訂閱用戶,允許開發(fā)者付費(fèi)將 AI 集成到他們的應(yīng)用程序中。微軟表示,新款的必應(yīng)(Bing)搜索引擎將運(yùn)行于 GPT-4 系統(tǒng)之上。
一覺醒來,萬眾期待的GPT-4,它來了!
OpenAI老板Sam Altman直接開門見山地介紹說:
這是我們迄今為止功能最強(qiáng)大的模型!
有多強(qiáng)?
根據(jù)OpenAI官方的介紹,GPT-4是一個(gè)超大的多模態(tài)模型,也就是說,它的輸入可以是文字(上限2.5萬字),還可以是圖像。
(看圖)手套掉下去會怎樣? 它會掉到木板上,并且球會被彈飛。
甚至只需要簡單在紙上畫一個(gè)網(wǎng)站的草稿圖:
拍一張照片上傳給GPT-4,它就可以立馬生成網(wǎng)站的HTML代碼!
在性能表現(xiàn)上,OpenAI直接甩出一句話:
在各種專業(yè)和學(xué)術(shù)基準(zhǔn)上和人類相當(dāng)!
而且不只是發(fā)布GPT-4這么簡單,OpenAI這次“啪的一下”把相關(guān)“大動作”一步到位了:
ChatGPT Plus:集成GPT-4的ChatGPT升級版
發(fā)布GPT-4的API
公布技術(shù)論文 * 公開System Card
不僅如此,傳聞的“必應(yīng)早就用上了GPT-4”在今天也得到了微軟方面的證實(shí):
沒錯(cuò),確實(shí)是這樣的!
不得不說,自打ChatGPT問世以來,微軟和谷歌之間打響的數(shù)輪科技戰(zhàn)役,微軟這次又雙叒叕贏麻了。
甚至這一次,不少網(wǎng)友都發(fā)出了“見證歷史”的感慨:
史上最強(qiáng)大模型
正如之前傳言,GPT-4確實(shí)擁有多模態(tài)能力,可以接受圖像輸入并理解圖像內(nèi)容。
并且可接受的文字輸入長度也增加到3.2萬個(gè)token(約2.4萬單詞)。
升級之后,GPT-4在各種職業(yè)和學(xué)術(shù)考試上表現(xiàn)和人類水平相當(dāng)。
比如模擬律師考試,GPT-4取得了前10%的好成績,相比之下GPT-3.5是倒數(shù)10%。
做美國高考SAT試題,GPT-4也在閱讀寫作中拿下710分高分、數(shù)學(xué)700分(滿分800)。
那么GPT-4這些新能力實(shí)際用起來是什么樣的?技術(shù)報(bào)告中也給出不少展示。
首先,看圖能力可以用來解釋表情包、梗圖。
提問這張圖哪里好笑?GPT-4可以按順序描述出每一格的內(nèi)容,并總結(jié)出笑點(diǎn):
用巨大的過時(shí)VGA接口給小巧的現(xiàn)代智能手機(jī)充電。
更進(jìn)一步,GPT-4可以理解圖表中數(shù)據(jù)的含義,并做進(jìn)一步計(jì)算。
甚至可以直接把論文截圖發(fā)給它,GPT-4可以按像素處理其中的文字和圖片,并給出對整篇論文的總結(jié)摘要。
文字輸入長度限制的增加,也大大擴(kuò)展了GPT-4的實(shí)用性。
發(fā)布會直播上,OpenAI總裁Gregman現(xiàn)場表演了一波GPT-4給代碼修Bug。
出現(xiàn)問題啥也不用想,直接把1萬字的程序文檔一股腦扔給GPT-4就行。格式也不用管,你只需要Ctrl+A、Ctrl+C、Ctrl+V。
再最后附上出現(xiàn)的問題,在幾秒鐘內(nèi)瞬間得到解決辦法。
在API方面,GPT-4還開放了一個(gè)使用功能,允許修改“系統(tǒng)提示”。
之前ChatGPT的回答總是冗長而平淡,這是因?yàn)橄到y(tǒng)提示中規(guī)定了“你只是一個(gè)語言模型……你的知識截止于2021年9月”。
現(xiàn)在通過修改這句話,GPT-4就可以展現(xiàn)出更多樣的性格,比如扮演蘇格拉底。
也可以指定之后所有回答的形式,比如全用json格式。
雖然GPT-4這波能力大升級,但之前ChatGPT會出現(xiàn)幻覺、胡說八道的毛病還是沒能完全改掉。
從前面的官方示例也可以看出,要想最大程度發(fā)揮GPT-4的能力,最好還是用上思維鏈路提示(Chain-of-thought Prompt)。
操作起來也非常簡單,只需在提問的時(shí)候額外提醒AI給出步驟,就能大大提高推理和計(jì)算的準(zhǔn)確率。
谷歌依舊在跟
就在GPT-4發(fā)布前,谷歌方面為了迎戰(zhàn)微軟,宣布將一系列即將推出的AIGC功能,應(yīng)用到自家產(chǎn)品中。
包括谷歌 Docs(文檔)、Gmail、Sheets(表格)和 Slides(幻燈片)。
但不同于微軟和OpenAI的“發(fā)布即可用”,谷歌只會先將Docs和Gmail中的AI工具,在月底提供給一些“值得信賴的開發(fā)人員”。
而其它功能則將是在今年晚些時(shí)候向公眾開放。
至于具體時(shí)間,谷歌方面并沒有具體說明。
而外界對此評價(jià)是谷歌希望搶先微軟原定于本周四的發(fā)布。
但從今天的結(jié)果上來看,微軟依舊提前“搶灘登陸”。
在GPT-4發(fā)布之前,便有網(wǎng)友做出了GPT-3和GPT-4參數(shù)量的對比圖,并猜測GPT-4的參數(shù)量將達(dá)到100萬億。
這一次亦是如此。
有網(wǎng)友預(yù)言,未來GPT-5的參數(shù)量,會是這樣的:
但無論如何,這一次,我們離真·人工智能,更近了一步。
審核編輯 :李倩
-
人工智能
+關(guān)注
關(guān)注
1804文章
48783瀏覽量
246888 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1588瀏覽量
8826
原文標(biāo)題:GPT-4多模態(tài)模型發(fā)布,對ChatGPT的升級和斷崖式領(lǐng)先
文章出處:【微信號:AI_Architect,微信公眾號:智能計(jì)算芯世界】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
海康威視發(fā)布多模態(tài)大模型AI融合巡檢超腦
海康威視發(fā)布多模態(tài)大模型文搜存儲系列產(chǎn)品
ChatGPT Plus 2025新功能搶先看:如何訂閱與使用全攻略
OpenAI即將發(fā)布GPT-4.5與GPT-5
解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內(nèi)支付方法)
Llama 3 與 GPT-4 比較
科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo
利用OpenVINO部署Qwen2多模態(tài)模型
云知聲山海多模態(tài)大模型UniGPT-mMed登頂MMMU測評榜首

OpenAI即將發(fā)布“草莓”推理大模型
云知聲推出山海多模態(tài)大模型
依圖多模態(tài)大模型伙伴CTO精研班圓滿舉辦
llm模型和chatGPT的區(qū)別
OpenAI推出新模型CriticGPT,用GPT-4自我糾錯(cuò)
OpenAI API Key獲取:開發(fā)人員申請GPT-4 API Key教程

評論