在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

In-context learning介紹

深度學習自然語言處理 ? 來源:NLP日志 ? 2023-04-21 10:02 ? 次閱讀

1 簡介?????????

隨著大規模預訓練語言模型(LLM)能力的不斷提升,in-context learning(ICL)逐漸成為自然語言處理領域一個新的范式。ICL通過任務相關的若干示例或者指令來增強上下文,從而提升語言模型預測效果,通過探索ICL的性能來評估跟推斷LLM能力也成為一種新的趨勢。

58c4df04-df6c-11ed-bfe3-dac502259ad0.png

圖1: In-context learning示例

2 介紹

In-context learning是一種學習范式,它允許語言模型通過以演示形式組織的若干個示例或者指令來學習任務。In-context learning的核心在于從任務相關的類比樣本中學習,ICL要求若干示例以特定形式進行演示,然后將當前輸入x跟上述示例通過prompt拼接到一起作為語言模型的輸入。本質上,它利用訓練有素的語言模型根據演示的示例來估計候選答案的可能性。簡單理解,就是通過若干個完整的示例,讓語言模型更好地理解當前的任務,從而做出更加準確的預測。

從定義上可以發現in-context learning跟其他相關概念的差異,比如prompt learning跟few-shot learning。Prompt learning是通過學習合適的prompt來鼓勵模型預測出更加合適的結果,而prompt既可以是離散型,也可以是連續型。嚴格來講,in-context learning可以視為prompt learning中的一小部分,如果將in-context learning中的若干示例的演示視作prompt的話。Few-shot learning指的是在給定少量監督數據下利用參數更新來學習最佳模型參數的訓練方法,但in-context learning則不然,它不要求參數更新。

In-context learning有以下幾個優勢,

a)若干示例組成的演示是用自然語言撰寫的,這提供了一個跟LLM交流的可解釋性手段,通過這些示例跟模版讓語言模型更容易利用到人類的知識。

b)類似于人類類比學習的決策過程,舉一反三。

c)相比于監督學習,它不需要模型訓練,減小了計算模型適配新任務的計算成本,更容易應用到更多真實場景。

3 方法????????

In-context learning可以分為兩部分,分為作用于Training跟inference階段

3.1 Training

在推理前,通過持續學習讓語言模型的ICL能力得到進一步提升,這個過程稱之為warmup,warmup會優化語言模型對應參數或者新增參數,區別于傳統的finetune,finetune旨在提升LLM在特定任務上的表現,而warmup則是提升模型整理的ICL性能。

Supervised in-context training

通過構建對應的in-context的監督數據跟多任務訓練,進行對應的in-context finetune,從而縮小預訓練跟下游ICL的差距。除此之外,instruct tuning通過在instruction上訓練能提升LLM的ICL能力。

Self-supervised in-context training

根據ICL的格式將原始數據轉換成input-output的pair對數據后利用四個自監督目標進行訓練,包括掩碼語言,分類任務等。

Supervised training跟self-supervised training旨在通過引入更加接近于in-context learning的訓練目標從而縮小預訓練跟ICL之間的差距。比起需要示例的in-context finetuning,只涉及任務描述的instruct finetuning更加簡單且受歡迎。另外,在warmup這個階段,語言模型只需要從少量數據訓練就能明顯提升ICL能力,不斷增加相關數據并不能帶來ICL能力的持續提升。從某種角度上看,這些方法通過更加模型參數可以提升ICL能力也表明了原始的LLM具備這種潛力。雖然ICL不要求warmup,但是一般推薦在推理前增加一個warmup過程。

3.2 Inference

很多研究表明LLM的ICL性能嚴重依賴于演示示例的格式,以及示例順序等等,在使用目前很多LLM模型時我們也會發現,在推理時,同一個問題如果加上不同的示例,可能會得到不同的模型生成結果。

Demonstration Selection

對于ICL而言,那些樣本是好的?語言模型的輸入長度是有限制的,如何從眾多的樣本中挑選其中合適的部分作為示例這個過程非常重要。按照選擇的方法主要可以分為無監督跟有監督兩種。

其中無監督的方法分為以下幾種,首先就是根據句向量距離或者互信息等方式選擇跟當前輸入x最相似的樣本作為演示例,另外還有利用自使用方法去選擇最佳的示例排列,有的方法還會考慮到演示示例的泛化能力,盡可能去提高示例的多樣性。除了上述這些從人工撰寫的樣本中選擇示例的方式外,還可以利用語言模型自身去生成合適的演示示例。

至于監督的方法也有幾種,第一種是先利用無監督檢索器召回若干相似的樣本,再通過監督學習訓練的Efficient Prompt Retriever進行打分,從而篩選出最合適的樣本。此外還有基于prompt tuning跟強化學習的方式去選擇樣本。

Demonstration ordering

挑選完演示示例后,如何對其進行排序也非常重要。排序的方法既有不需要訓練的,也有根據示例跟當前輸入距離遠近進行排序的,也可以根據自定義的熵指標進行重排。

Demonstration Formatting

如何設計演示示例的格式?最簡單的方式就是將示例們的x-y對按照順序直接拼接到一起。但是對于復雜的推理問題,語言模型很難直接根據x推理出y,這種格式就不適用了。另外,有的研究旨在設計更好的任務指令instruction作為演示內容,上述的格式也就不適用了。對于這兩類場景,除了人工撰寫的方式外,還可以利用語言模型自身去生成對應的演示內容。

4 總結????????????????

上面關于in-context learning的介紹可能會讓人感到些許困惑,instruction tuning也算是其中一種,但是instruction里不一定有演示示例,我個人想法也是如此,如果大多數instruction里也會提及對應的任務示例,但是不排除部分instruction只涉及到任務定義,所以前面將in-context learning跟任務示例強綁定可能就不太嚴謹了。但是大家能理解其中的含義即可,也沒必要深究其中的某些表述。????

毋庸置疑,在大規模語言模型能力快速提升的今天,in-context learning的熱度還將持續一段時間,如何通過構建合適的in-context來進一步激發語言模型在特定任務下的表現是值得思考的問題,如果能讓語言模型自身去寫對應的任務示例或者指令,讓模型自己指導自己執行任務,不就進一步解放生產力了嘛。細品下autoGPT,不也是ai自己指導自己完成任務嘛。






審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • icl
    icl
    +關注

    關注

    0

    文章

    28

    瀏覽量

    17354
  • 語言模型
    +關注

    關注

    0

    文章

    557

    瀏覽量

    10596

原文標題:In-context learning綜述篇

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    鴻蒙開發接口Ability框架:【Context

    Context模塊提供開發者運行代碼的上下文環境的能力,包括查詢和設置應用信息、ResourceManager等信息。
    的頭像 發表于 05-21 17:33 ?1124次閱讀
    鴻蒙開發接口Ability框架:【<b class='flag-5'>Context</b>】

    Ensemble Learning Task

    學習地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask
    發表于 07-07 07:06

    追溯ChatGPT各項能力的起源

    上下文學習 (in-context learning) : 遵循給定任務的幾個示例,然后為新的測試用例生成解決方案。很重要的一點是,GPT-3雖然是個語言模型,但它的論文幾乎沒有談到“語言建模
    的頭像 發表于 02-17 10:05 ?1125次閱讀

    把ChatGPT加入Flutter開發,會有怎樣的體驗?

    與以往的統計模型不行,ChatGPT 不是那種「一切都從語料統計里學習」的 AI,相反 ChatGPT 具備有臨場學習的能力,業內稱之為 in-context learning ,這也是為什么 ChatGPT 可以在上下文中學習的原因。
    的頭像 發表于 03-06 09:43 ?1066次閱讀

    一文解析In-Context Learning

    本文主要以實驗為主,探究以上影響 ICL 的因素。 實驗設置 作者采用 12 個模型進行了實驗。我們包括 6 種語言模型(表 1),所有這些模型都是僅限解碼器的 dense LM。LMs 的大小從 774M 到 175B 不等。
    發表于 03-22 15:21 ?3952次閱讀

    In-context learning如何工作?斯坦福學者用貝葉斯方法解開其奧秘

    In-context learning允許用戶為新用例快速構建模型,而無需為每個任務微調和存儲新參數。它通常只需要很少的訓練示例就可以使模型正常工作,而且即使對于非專家來說,也可以通過直觀的自然語言來進行交互。
    的頭像 發表于 04-11 14:07 ?1698次閱讀

    大模型LLM領域,有哪些可以作為學術研究方向?

    隨著全球大煉模型不斷積累的豐富經驗數據,人們發現大模型呈現出很多與以往統計學習模型、深度學習模型、甚至預訓練小模型不同的特性,耳熟能詳的如Few/Zero-Shot LearningIn-Context Learning、Ch
    的頭像 發表于 05-29 14:36 ?1507次閱讀
    大模型LLM領域,有哪些可以作為學術研究方向?

    In-Context-Learning在更大的語言模型上表現不同

    最近,在語言模型領域取得了巨大的進展,部分是因為它們可以通過In-Context- Learning ( ICL)來完 成各種復雜的任務。
    的頭像 發表于 06-12 14:35 ?935次閱讀
    In-<b class='flag-5'>Context-Learning</b>在更大的語言模型上表現不同

    首篇!Point-In-Context:探索用于3D點云理解的上下文學習

    隨著基于廣泛數據訓練的大模型興起,上下文學習(In-Context Learning)已成為一種新的學習范式,在自然語言處理(NLP)和計算機視覺(CV)任務中表現出了巨大的潛力。
    的頭像 發表于 07-13 14:41 ?1044次閱讀
    首篇!Point-In-<b class='flag-5'>Context</b>:探索用于3D點云理解的上下文學習

    基于Tansformer架構的ChatGPT原理解析

    學習(In-Context Learning)、思維鏈(Chain of Thought,CoT)等概念也隨之進入大眾視野。市面上甚至出現了提示工程師這個職業,專門為指定任務編寫提示模板。
    發表于 09-04 14:36 ?662次閱讀
    基于Tansformer架構的ChatGPT原理解析

    關于GO CONTEXT機制實現原則

    Context接口沒有提供方法來設置其值和過期時間,也沒有提供方法直接將其自身撤銷。也就是說,Context不能改變和撤銷其自身。那么該怎么通過Context傳遞改變后的狀態呢?
    的頭像 發表于 11-16 16:15 ?505次閱讀

    基于單一LLM的情感分析方法的局限性

    LLM的發展為情感分析任務帶來的新的解決方案。有研究人員使用LLM,在上下文學習(in-context learning, ICL)的范式下,僅使用少量的訓練示例就能夠實現與監督學習策略旗鼓相當的性能表現。
    的頭像 發表于 11-23 11:14 ?1137次閱讀
    基于單一LLM的情感分析方法的局限性

    無監督域自適應場景:基于檢索增強的情境學習實現知識遷移

    本文對比了多種基線方法,包括無監督域自適應的傳統方法(如Pseudo-labeling和對抗訓練)、基于檢索的LM方法(如REALM和RAG)和情境學習方法(如In-context learning)。
    發表于 12-05 14:14 ?793次閱讀
    無監督域自適應場景:基于檢索增強的情境學習實現知識遷移

    谷歌提出大規模ICL方法

    谷歌DeepMind團隊近日取得了一項突破性的研究成果。他們提出了強化和無監督兩種新型的ICL(In-Context Learning)學習方法,這一創新技術能夠在多個領域顯著提升模型的性能。
    的頭像 發表于 05-14 14:17 ?506次閱讀

    鴻蒙開發組件:FA模型的Context

    FA模型下只有一個ContextContext中的所有功能都是通過方法來提供的,它提供了一些featureAbility中不存在的方法,相當于featureAbility的一個擴展和補全。
    的頭像 發表于 06-21 09:43 ?480次閱讀
    鴻蒙開發組件:FA模型的<b class='flag-5'>Context</b>
    主站蜘蛛池模板: 国内精品久久久久影院男同志 | 国产欧美日韩综合精品一区二区 | 毛片区| 国产精品vv在线 | 五月激情六月丁香 | 国产激情在线观看 | 国产你懂的在线观看 | 51视频在线观看免费国产 | 精品无码中出一区二区 | 久久久久久夜精品精品免费 | 日本久久黄色 | 狠狠狠狠操 | 国产成人午夜精品影院游乐网 | 久久久精品久久久久久久久久久 | 亚洲成电影 | 午夜免费观看福利片一区二区三区 | 扒开双腿疯狂进出爽爽爽 | freesexvideo性大全 | 男女午夜特黄毛片免费 | 俺也来俺也去俺也射 | 一区二区三区四区在线视频 | 全是肉的高h短篇列车 | 99久久国产免费福利 | 欧洲综合色| 免费观看成年欧美1314www色 | 1000部又爽又黄的做黄禁片 | 午夜免费视频福利集合100 | 久久看精品 | 影视精品网站入口 | 干干操 | 亚洲国产精品久久久久婷婷老年 | 天天综合网色 | 波多野结衣一级特黄毛片 | 欲色综合 | 精品国产一二三区 | 亚洲国产精品婷婷久久 | 天堂在线观看中文字幕 | 一色屋成人免费精品网站 | 欧美一级乱理片免费观看 | 欧美性生活网址 | 68日本xxxxxxxxx18能看的 |