在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

為什么ChatGPT模型大了就有上下文聯系能力?

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-04-27 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

關于這點,在一篇采訪OpenAI 總裁Greg Brockman 的報道中提到了:

“Q:ChatGPT是如何產生的?GPT模型當初發布時顯得有些違反常識,但卻在某種程度上掀起了最新的AI浪潮,這與你們當初構建這些技術時的預期是否一致?

A:ChatGPT、GPT-3、DALL·E 2這些模型看似一夜成名,但其實構建這些模型耗費了整整五年時間,飽含多年的心血。GPT模型的構建要從2017年發布的情感神經元論文(Neural Sentiment Neuron: A novel Neural Architecture for Aspect-based Sentiment Analysis)說起,這篇論文的思想很新穎,不過很多人可能已經忘了。

....“

于是好奇去查了這篇文章,很遺憾,并不是上面提到的這篇文章,而是官網Learning to Generate Reviews and Discovering Sentiment這篇文章。這篇文章的作者很激動、誠懇甚至有點卑微的表達了它的意外發現,那就是單純訓練LSTM 模型的去預測下一個單詞,模型中的某個神經元意外對應著情感狀態,用Greg Brockman的原話說就是:

“我們發現LSTM模型中的單個神經元有助于開發出SOTA情感分析分類器(sentiment analysis classifier),可以告知你文本情感(正面評價或負面評價),這一發現聽起來平平無奇,但我們非常清楚地知道,這是一個超越語法并轉向語義的時刻。”

關于為何會出現這種涌現行為,文章的作者提出了他的思路:

“情緒作為條件特征可能對語言建模具有很強的預測能力。(It is possible that sentiment as a conditioning feature has strong predictive capability for language modelling.)“

這個思路是典型的達爾文進化思維:

即模型本身有生成各種能力的潛力,當某項能力有利于模型完成任務(完不成的參數被調整,等駕馭被任務淘汰),這項能力就能自發進化出來。

神經網絡在訓練的時候,采用的隨機梯度下降算法,一定程度上等效于物種的基因突變,本質是有一定方向的隨機摸索,在強大的生存壓力下,錯誤的摸索被淘汰,久而久之,積累越來越多的正確摸索,某些高層的功能就這么涌現出來了。

這種思路是不同于還原論的,ChatGPT 的出現讓很多這個行業的老人困惑:“似乎原理上沒有任何創新,為何能力出現巨大提升呢?”“涌現這個詞本身就是個模棱兩可的詞,我并不知道具體的細節,那就是偽科學?!薄癈hatGPT 具備的推理能力不過是另一種歸納,永遠無法替代演繹”。

還原論的思想講究從底層到高層的逐漸構建,每行代碼都有清晰的含義,這樣寫出來的系統才叫系統,但進化論的思想完全不同,進化論需要構建一個萬能生成器,然后建立一個淘汰機制,對萬能生成器生成的各種可能進行篩選淘汰,這樣進化出來的系統,就能很好的完成任務,至于里面形成的微結構,那并不是重點,甚至都無法用簡單的語言描述,因為本身就是全局共同起作用的。

所謂上下文推理,不過就是給定前文,準確給出后文的能力,這其實就是語言模型預訓練時候就在做的事情,為了能做到這點,在訓練的過程中,各種有助于提高預測能力的高層能力,都會自然而然的進化出來,所謂的高層能力,不過是一種函數,而神經網絡本身可以擬合一切函數,同時隨機梯度下降,又讓神經網絡具備了參數自動填充的能力。當然,進化的過程中,神經網絡總會嘗試找到更好的解法,比如死記硬背,但這些解法往往跟我們預期的解法不一致,這時候任務的合理構建就很重要了,需要巧妙的設計,讓我們預期的解法是神經網絡進化的唯一解。

其實換個角度想,人為什么有推理能力?人的一切能力也是進化而來的,人的各種生存壓力,配合基因的隨機突變和大自然的定向篩選,導致推理等能力的出現,換句話說,當推理能力的出現有助于人這個群體生存的時候,這個能力就會出現,跟GPT 涌現的各種能力的原理一樣。

不要總拿著還原論思想去看待世界,幾百年前,就出現了進化論思想,因為進化論思想沒有寫進義務教育的教材,導致太多人沒有深刻理解這個工具。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4814

    瀏覽量

    103472
  • 模型
    +關注

    關注

    1

    文章

    3516

    瀏覽量

    50359
  • ChatGPT
    +關注

    關注

    29

    文章

    1589

    瀏覽量

    9047

原文標題:為什么ChatGPT模型大了就有上下文聯系能力?

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    鴻蒙中Stage模型與FA模型詳解

    模型中, featureAbility 是舊版FA模型(Feature Ability)的用法 ,Stage模型已采用全新的應用架構,推薦使用 組件化的上下文獲取方式 ,而非依賴
    的頭像 發表于 07-07 11:50 ?137次閱讀

    鴻蒙NEXT-API19獲取上下文,在class中和ability中獲取上下文,API遷移示例-解決無法在EntryAbility中無法使用最新版

    摘要:隨著鴻蒙系統API升級至16版本(modelVersion5.1.1),多項API已廢棄。獲取上下文需使用UIContext,具體方法包括:在組件中使用getUIContext(),在類中使
    的頭像 發表于 07-01 10:57 ?182次閱讀
    鴻蒙NEXT-API19獲取<b class='flag-5'>上下文</b>,在class中和ability中獲取<b class='flag-5'>上下文</b>,API遷移示例-解決無法在EntryAbility中無法使用最新版

    S32K在AUTOSAR中使用CAT1 ISR,是否需要執行上下文切換?

    如果我們在 AUTOSAR 中使用 CAT1 ISR,是否需要執行上下文切換?另外,是否需要返回指令才能跳回到作系統?您有沒有帶有 CAT1 ISR 的 S32K3x4 微控制器的示例?
    發表于 03-27 07:34

    DeepSeek推出NSA機制,加速長上下文訓練與推理

    的特性,專為超快速的長上下文訓練和推理而設計。 NSA通過針對現代硬件的優化設計,顯著加快了推理速度,并大幅度降低了預訓練成本,同時保持卓越的性能表現。這一機制在確保效率的同時,并未犧牲模型的準確性或功能。 在廣泛的基準測試、
    的頭像 發表于 02-19 14:01 ?623次閱讀

    OpenAI更新macOS ChatGPT應用,推出“代理”功能實現無縫集成

    ”功能的推出。通過這一功能,ChatGPT能夠作為用戶的得力助手,在支持的第三方應用程序中讀取屏幕信息,并根據上下文提供精準的幫助和建議。無論是編寫代碼、記錄筆記還是處理文檔,用戶都能享受到ChatGPT帶來的智能化輔助,實現工
    的頭像 發表于 01-02 10:49 ?662次閱讀

    《具身智能機器人系統》第7-9章閱讀心得之具身智能機器人與大模型

    的應用。MAML算法通過二階優化找到對任務變化敏感的模型參數,實現快速適應。上下文學習則引入了注意力機制,使模型能夠根據當前場景動態調整行為策略。在預訓練-微調范式中,我們要注意任務
    發表于 12-24 15:03

    一文解析Anthropic MCP協議

    提供上下文ChatGPT 升級為實時協作助手),沒想到 Claude 這么快就帶來了一個 LLM 協議標準,直接將 AI 能力拉滿(現在下結論為時尚早)。不過當我看完整個協議以及簡單上手體驗后,我想說
    的頭像 發表于 12-04 11:09 ?5157次閱讀
    一文解析Anthropic MCP協議

    阿里通義千問發布Qwen2.5-Turbo開源AI模型

    體驗。 Qwen2.5-Turbo在上下文長度方面實現重大突破,能夠擴展至100萬個tokens,這相當于大約100萬英文單詞或150萬中文字符的容量。如此龐大的上下文長度,足以包含10部完整的小說、150小時的演講稿或300
    的頭像 發表于 11-19 18:07 ?1218次閱讀

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內支付方法)

    更快的文本生成速度和更精準的圖像理解。GPT-4o 的消息額度是免費版的五倍,上下文窗口也更大。 高級語音模式 (AVM): 支持 50 多種語言,可理解語速等非語言線索
    的頭像 發表于 10-29 18:17 ?2445次閱讀

    Llama 3 在自然語言處理中的優勢

    領域的最新進展。 1. 高度的上下文理解能力 Llama 3的一個顯著優勢是其對上下文的深刻理解。傳統的NLP模型往往在處理復雜的語言結構和上下文依賴性時遇到困難。Llama 3通過使
    的頭像 發表于 10-27 14:22 ?724次閱讀

    Llama 3 語言模型應用

    在人工智能領域,語言模型的發展一直是研究的熱點。隨著技術的不斷進步,我們見證從簡單的關鍵詞匹配到復雜的上下文理解的轉變。 一、Llama 3 語言模型的核心功能
    的頭像 發表于 10-27 14:15 ?719次閱讀

    如何評估 ChatGPT 輸出內容的準確性

    評估 ChatGPT 輸出內容的準確性是一個復雜的過程,因為它涉及到多個因素,包括但不限于數據的質量和多樣性、模型的訓練、上下文的理解、以及輸出內容的邏輯一致性。以下是一些評估 ChatGPT
    的頭像 發表于 10-25 17:48 ?1139次閱讀

    SystemView上下文統計窗口識別阻塞原因

    SystemView工具可以記錄嵌入式系統的運行時行為,實現可視化的深入分析。在新發布的v3.54版本中,增加了一項新功能:上下文統計窗口,提供對任務運行時統計信息的深入分析,使用戶能夠徹底檢查每個任務,幫助開發人員識別阻塞原因。
    的頭像 發表于 08-20 11:31 ?696次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    能夠關注到輸入文本中的重要部分,從而提高預測的準確性和效率。這種機制允許模型在處理文本時同時考慮多個位置的信息,并根據重要性進行加權處理。 一些關鍵技術 1. 上下文理解 大語言模型能夠同時考慮句子前后
    發表于 08-02 11:03

    ChatGPT-4o,國產大模型竟然更懂翻譯,8款大模型深度測評|AI 橫評

    、速度慢、費用高且難以準確理解上下文”的問題。相比之下,AI大模型憑借其強大的學習能力和適應性,在翻譯質量、效率、上下文理解和多語言支持等方面表現出色,提供
    的頭像 發表于 07-14 08:04 ?128次閱讀
    超<b class='flag-5'>ChatGPT</b>-4o,國產大<b class='flag-5'>模型</b>竟然更懂翻譯,8款大<b class='flag-5'>模型</b>深度測評|AI 橫評
    主站蜘蛛池模板: 国产青草 | 日本黄段视频 | 天堂资源wwww在线看 | 很黄很暴力 很污秽的小说 很黄很黄叫声床戏免费视频 | 久久夜色精品国产噜噜小说 | 亚洲天堂成人在线 | 91视频啪啪| 四虎影视在线观看 | 五月天综合婷婷 | 欧美性淫爽www视频播放 | 午夜三级理论在线观看视频 | 亚洲 另类 在线 欧美 制服 | 免费公开视频人人人人人人人 | 欧美天堂在线观看 | 欧美精品一区二区三区在线播放 | 好男人社区www在线观看 | 国产自在自线午夜精品视频 | 美国一级毛片不卡无毒 | 日韩亚洲欧洲在线com91tv | 国产精品手机在线 | 韩国三级精品 | 亚洲免费视频一区二区三区 | 五月天丁香婷 | 夜夜爽免费视频 | 让她爽的喷水叫爽乱 | 日韩欧美伦理 | 福利片在线观看免费高清 | 亚洲第一精品夜夜躁人人爽 | 一本大道加勒比久久 | 亚洲精品午夜视频 | 在线免费看黄视频 | 青草视频在线观看国产 | 美女被免费网站在线视频九色 | 色综合天天综久久久噜噜噜久久〔 | 凹凸福利视频导航 | 欧美天天爽 | 亚洲成人激情电影 | 欧美日韩色图 | 精品免费视在线观看 | 欧美肥穴| 日韩a毛片免费全部播放完整 |