在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何從訓(xùn)練集中生成候選prompt 三種生成候選prompt的方式

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:青稞AI ? 2024-01-12 11:29 ? 次閱讀

作者:劉小虎,中國(guó)科學(xué)院計(jì)算技術(shù)研究所

組內(nèi)現(xiàn)在正在做大模型相關(guān),筆者負(fù)責(zé)prompt engineering,在實(shí)際工程中會(huì)發(fā)現(xiàn)prompt對(duì)模型的輸出影響巨大,可能一個(gè)字就會(huì)改變模型的輸出(筆者用的是量化后的7B model),而且換一個(gè)模型,就要改變手工制定的prompt,非常麻煩和受限。因此想到了Automatic prompt engineering。由此記錄自己的paper閱讀,肯定會(huì)有自己的理解錯(cuò)誤的地方,如有發(fā)現(xiàn)請(qǐng)聯(lián)系筆者進(jìn)行更正。

APE: Larger Language models are human-level prompt engineers

這篇論文的核心思路就是:

?從訓(xùn)練集中生成候選prompt

?評(píng)估這些候選prompt,選出得分最高的prompt

?resample, 使用LLM 生成語(yǔ)義相近的prompt(2中得分最高的prompt),然后再進(jìn)行評(píng)估,最終得到prompt

642bb4ce-afed-11ee-8b88-92fbcf53809c.jpg

APE整體框架圖

643a4d68-afed-11ee-8b88-92fbcf53809c.jpg

APE算法

生成候選prompt

論文指出有三種生成候選prompt的方式

?Forward Mode Generation

64445e70-afed-11ee-8b88-92fbcf53809c.jpg

這個(gè)比較直觀,就是寫一段指令,然后將訓(xùn)練集的輸入輸出給出,直接讓LLM自動(dòng)生成prompt。這個(gè)生成prompt的模板不知道是哪的出處,有網(wǎng)友知道是哪的,可以直接指出。

?Reverse Mode Generation

644ec13a-afed-11ee-8b88-92fbcf53809c.jpg

這個(gè)也很直觀,就是填補(bǔ)空白的方式。但是這個(gè)方式怎么實(shí)現(xiàn)呢?我比較疑惑,不知道怎么實(shí)現(xiàn)這個(gè)填補(bǔ)空白的方式,因?yàn)長(zhǎng)LM都是一個(gè)字一個(gè)字的自回歸生成。

645a93ac-afed-11ee-8b88-92fbcf53809c.jpg

?Customized Prompts

6466ca5a-afed-11ee-8b88-92fbcf53809c.jpg

這一類就是自己根據(jù)task來(lái)設(shè)計(jì)了,論文給出了一個(gè)示例。我認(rèn)為就是使用不同的模板來(lái)擴(kuò)充了多樣性(可能是我的理解有錯(cuò)誤)

評(píng)估候選prompt

?Execution accuracy

這種方式其實(shí)就是使用GT來(lái)進(jìn)行比較。將得分最高的prompt扔進(jìn)模型,得到結(jié)果和GT進(jìn)行比較。

?Log probability

給定指令和問題后所得到的所需答案的對(duì)數(shù)概率

另外,這一步如果在全量訓(xùn)練集上評(píng)估,則開銷非常大,因此作者提出一種multi-stage策略。大致思想是先在少量subset上評(píng)估,然后過濾掉比較差的,循環(huán)這一過程直到候選集足夠小,此時(shí)再在全量訓(xùn)練集上進(jìn)行評(píng)價(jià)、挑選。

Resample

使用的是蒙特卡羅搜索的方式。說(shuō)的這么玄乎,其實(shí)還是使用LLM來(lái)生成prompt!但是這一步他是使用之前得分最高的prompt再次來(lái)生成語(yǔ)義相近的prompt。

64703888-afed-11ee-8b88-92fbcf53809c.jpg

這里可以是迭代的方式進(jìn)行。怎么迭代呢?筆者是這樣認(rèn)為的:

1、得到語(yǔ)義相近的prompt。
2、評(píng)估這些prompt。
3、得到得分最高的prompt 重復(fù)1、2步驟。

作者實(shí)驗(yàn)發(fā)現(xiàn),對(duì)于比較難的任務(wù),進(jìn)行resample能夠進(jìn)一步提升效果。

ProTeGi (Automatic Prompt Optimization with “Gradient Descent and Beam Search)

647bc5fe-afed-11ee-8b88-92fbcf53809c.jpg

這篇文章早就在arxiv上發(fā)出來(lái)了。當(dāng)時(shí)的縮寫還是APO。今年被EMNLP2023收錄

首先讓我們先來(lái)看看這篇論文的整體框架圖。

6485bb4a-afed-11ee-8b88-92fbcf53809c.jpg

ProTeGi總體框架圖

方法:利用數(shù)值梯度下降自動(dòng)優(yōu)化提示,同時(shí)結(jié)合beam search和bandit selection procedure提高算法效率。

優(yōu)勢(shì):無(wú)需調(diào)整超參數(shù)或模型訓(xùn)練,ProTeGi可以顯著提高提示的性能,并具有可解釋性。

什么原理呢?

?得到當(dāng)前prompt的“gradient”

這個(gè)“gradient”怎么得到的了呢,這是個(gè)啥玩意,怎么還有梯度?注意,注意。人家是帶引號(hào)的!比喻成梯度。這玩意有什么用呢。

文章指出給定一批error samples(當(dāng)前prompt無(wú)法預(yù)測(cè)正確的),讓LLM給出當(dāng)前prompt預(yù)測(cè)錯(cuò)誤的原因,這一原因即文本形式的“gradient”。使用的還是LLM!

64938b12-afed-11ee-8b88-92fbcf53809c.jpg

?將“gradient”輸入到LLM中,得到新的prompt

649d6e16-afed-11ee-8b88-92fbcf53809c.jpg

?和APE一樣,resample, 得到語(yǔ)義相近的prompt,然后迭代。

注意注意啊,每輪迭代中,最外層包含一個(gè)beam search過程,以便強(qiáng)化探索。這一塊就看不懂了, 也是本論文的貢獻(xiàn)之一。沒有想過改進(jìn),所以略過直接使用。

OPRO (Large Language Models as Optimizers)

64aa2dcc-afed-11ee-8b88-92fbcf53809c.jpg

paper:LargeLanguageModelsasOptimizers
鏈接:https://arxiv.org/abs/2309.03409
code:https://github.com/google-deepmind/opro

首先來(lái)看框架圖

64b668d0-afed-11ee-8b88-92fbcf53809c.jpg

然后接著看論文對(duì)meta-prompt的定義

64c360ee-afed-11ee-8b88-92fbcf53809c.jpg

blue 藍(lán)色的是 solution-score pairs 也就是 prompt + score。這個(gè)score怎么來(lái)的呢?使用LLM進(jìn)行打分,也就是Figure 2 中的 objective function evaluator。這應(yīng)該也是個(gè)LLM, 這個(gè)LLM和 LLM as optimizer 可以是同一個(gè) 也可以不是。** 注意,這個(gè)打分其實(shí)就是評(píng)估新生成的prompt在任務(wù)上的表現(xiàn),說(shuō)白了就是和GT進(jìn)行對(duì)比(對(duì)了+1)**。

orange 橙色 就是指令 meta-instructions.

purple 紫色 就是task description,包含一些任務(wù)的examples、優(yōu)化的目標(biāo)等

因此, OPRO的核心思路是讓LLM基于過往的迭代記錄、優(yōu)化目標(biāo),自己總結(jié)規(guī)律,逐步迭代prompt,整個(gè)過程在文本空間上完成。

PE2 (Prompt Engineering a Prompt Engineer)

64d0f2cc-afed-11ee-8b88-92fbcf53809c.jpg

paper:PromptEngineeringaPromptEngineer
鏈接https://arxiv.org/abs/2311.05661

這一篇paper 是 APE 和 APO (ProTeGi)的改進(jìn)版,集成了這2個(gè)方法的優(yōu)點(diǎn)。

這篇論文主要提出了一個(gè)meta-prompt的東東(等等,我去,這玩意和OPRO這篇論文里的好像?。?/p>

提供更細(xì)節(jié)的指令和內(nèi)容

?提供提示工程的教程

?2階段的任務(wù)描述

?step-by-step 推理的模板

?明確指定提示與輸入之間的相互關(guān)系

結(jié)合優(yōu)化的概念

?batch size : 指的就是使用batch size失敗的例子

?step size : 指的就是改變?cè)嫉膒rompt中step size個(gè)字

?Optimization History and Momentum : 其實(shí)就是增加了以外的prompt和修改后的prompt

看完后驚呼道:這是真能寫啊。寫的玄乎又玄乎的。一圖勝千言

64da7c02-afed-11ee-8b88-92fbcf53809c.jpg

64e9ce1e-afed-11ee-8b88-92fbcf53809c.jpg

64fbed1a-afed-11ee-8b88-92fbcf53809c.jpg

給我的感覺就是前面3篇論文的集成版本。

將OPRO中的meta-prompt的概念用到了 APO中了,然后豐富了模板的內(nèi)容。有反思分析有推理,迭代的讓模型自動(dòng)修改prompt。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4630

    瀏覽量

    93365
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    2685
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    299

    瀏覽量

    401

原文標(biāo)題:總結(jié)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI對(duì)話魔法 Prompt Engineering 探索指南

    作者:京東物流 李雪婷 一、什么是 Prompt Engineering? 想象一下,你在和一個(gè)智能助手聊天,你需要說(shuō)出非常清晰和具體的要求,才能得到你想要的答案。Prompt
    的頭像 發(fā)表于 11-07 10:11 ?918次閱讀
    AI對(duì)話魔法 <b class='flag-5'>Prompt</b> Engineering 探索指南

    三種SPWM波形生成算法的分析與實(shí)現(xiàn)

    本文著重介紹三種SPWM波形生成算法的分析與實(shí)現(xiàn)
    發(fā)表于 08-24 16:30 ?12次下載

    HTML DOM prompt()方法使用

    HTML DOM Window 對(duì)象 定義和用法 prompt() 方法用于顯示可提示用戶進(jìn)行輸入的對(duì)話框。 語(yǔ)法prompt(text,defaultText)參數(shù)描述 text 可選。要在
    發(fā)表于 11-28 15:06 ?4702次閱讀
    HTML DOM <b class='flag-5'>prompt</b>()方法使用

    推薦系統(tǒng)中候選生成和冷啟動(dòng)挑戰(zhàn)的研究

    本研究針對(duì)推薦系統(tǒng)冷啟動(dòng)和候選生成兩方面的問題,提出了一基于深度學(xué)習(xí)的分類方法。
    的頭像 發(fā)表于 07-30 10:22 ?2514次閱讀

    應(yīng)用于任意預(yù)訓(xùn)練模型的prompt learning模型—LM-BFF

    /2107.13586.pdf 相關(guān)資源:http://pretrain.nlpedia.ai Part1什么是Prompt Learning BERT誕生開始,使用下游任務(wù)數(shù)據(jù)微調(diào)預(yù)訓(xùn)練語(yǔ)言模型 (LM)已成為
    的頭像 發(fā)表于 08-16 11:21 ?4696次閱讀
    應(yīng)用于任意預(yù)<b class='flag-5'>訓(xùn)練</b>模型的<b class='flag-5'>prompt</b> learning模型—LM-BFF

    揭秘Prompt的前世今生

    摻雜了筆者的一些個(gè)人見解,歡迎大家積極討論~ 論文的arxiv鏈接如下: https://arxiv.org/abs/2107.13586 一、Prompt的產(chǎn)生和興起 近幾年來(lái),有關(guān)預(yù)訓(xùn)練語(yǔ)言模型(PLM)的研究比比皆是,自然語(yǔ)言處理(
    的頭像 發(fā)表于 09-01 10:28 ?2892次閱讀
    揭秘<b class='flag-5'>Prompt</b>的前世今生

    Prompt范式你們了解多少

    卷友們好,我是rumor。 之前我學(xué)習(xí)Prompt范式的源起PET后就鴿了很久,相信卷友們已經(jīng)把Prompt的論文都追完了,把我遠(yuǎn)遠(yuǎn)地落在了后面。周末我不甘被卷,奮起直追,連刷篇paper,希望能
    的頭像 發(fā)表于 09-10 10:22 ?2795次閱讀
    <b class='flag-5'>Prompt</b>范式你們了解多少

    NLP中Prompt的產(chǎn)生和興起

    : https://arxiv.org/abs/2107.13586 本文的內(nèi)容框架如下: 一、Prompt的產(chǎn)生和興起 二、什么是Prompt 、Prompt的設(shè)計(jì)方法 四、
    的頭像 發(fā)表于 09-12 14:52 ?2628次閱讀
    NLP中<b class='flag-5'>Prompt</b>的產(chǎn)生和興起

    基于預(yù)訓(xùn)練視覺-語(yǔ)言模型的跨模態(tài)Prompt-Tuning

    論文:CPT:Colorful Prompt Tuning for Pre-Training Vision-Language Models 狀態(tài):Work in Progress 單位:清華大學(xué)
    的頭像 發(fā)表于 10-09 15:10 ?3294次閱讀
    基于預(yù)<b class='flag-5'>訓(xùn)練</b>視覺-語(yǔ)言模型的跨模態(tài)<b class='flag-5'>Prompt</b>-Tuning

    萬(wàn)能的prompt還能做可控文本生成

    隨著 Prompting 技術(shù)的大火,我們一直在思考,Prompt 究竟能夠帶來(lái)什么?我們都說(shuō),Prompt 本質(zhì)上是一激發(fā)語(yǔ)言模型中知識(shí)的手段。因此,它應(yīng)該不僅僅局限于數(shù)據(jù)集或者說(shuō)任務(wù)的層面,激發(fā)模型對(duì)于某個(gè)任務(wù)的“知識(shí)”
    的頭像 發(fā)表于 03-22 10:54 ?2829次閱讀

    關(guān)于Prompt在NER場(chǎng)景的應(yīng)用總結(jié)

    將序列標(biāo)注任務(wù)轉(zhuǎn)換成一個(gè)生成任務(wù),在Encoder端輸入為原始文本,Decoder端輸入的是一個(gè)已填空的模板文本,輸出為已填空的模板文本。待填空的內(nèi)容為候選實(shí)體片段以及實(shí)體類別。候選實(shí)體片段由原始文本進(jìn)行N-Gram滑窗構(gòu)建,為
    的頭像 發(fā)表于 05-24 10:54 ?2133次閱讀

    基于prompt和對(duì)比學(xué)習(xí)的句子表征學(xué)習(xí)模型

    我們發(fā)現(xiàn)prompt,再給定不同的template時(shí)可以生成不同方面的positive pair,且避免embedding bias。
    的頭像 發(fā)表于 10-25 09:37 ?931次閱讀

    專業(yè)音頻應(yīng)用中生成負(fù)電源軌的方案

    專業(yè)音頻應(yīng)用中生成負(fù)電源軌的方案
    發(fā)表于 10-31 08:23 ?4次下載
    專業(yè)音頻應(yīng)用<b class='flag-5'>中生成</b>負(fù)電源軌的方案

    評(píng)論中生成藝術(shù)的開源項(xiàng)目

    電子發(fā)燒友網(wǎng)站提供《評(píng)論中生成藝術(shù)的開源項(xiàng)目.zip》資料免費(fèi)下載
    發(fā)表于 07-05 11:06 ?0次下載
    <b class='flag-5'>從</b>評(píng)論<b class='flag-5'>中生成</b>藝術(shù)的開源項(xiàng)目

    prompt在AI中的翻譯是什么意思?

    效地完成任務(wù)。 Prompt技術(shù)可以幫助AI系統(tǒng)快速了解任務(wù)的背景、情境以及用戶的意圖,并提供指導(dǎo)AI系統(tǒng)在特定的情境下如何采取下一步行動(dòng)。通過使用Prompt技術(shù),AI系統(tǒng)可以更加準(zhǔn)確地理解用戶的需求,它可以使用歷史數(shù)據(jù)和已經(jīng)訓(xùn)練
    的頭像 發(fā)表于 08-22 15:59 ?2896次閱讀
    主站蜘蛛池模板: 久久国产精品系列 | 日本黄大片在线观看 | 日本一二线不卡在线观看 | 三级在线观看免播放网站 | 最近视频在线播放免费观看 | 222aaa天堂 | 天天干网站 | 黄色免费看视频 | 国产美女作爱全过程免费视频 | a成人| 国产床戏无遮掩视频播放 | 午夜欧美精品久久久久久久 | 日本福利片午夜免费观着 | 日韩性插| 婷婷六月丁香色婷婷网 | 国产精品女丝袜白丝袜 | 免费在线看片网站 | 天天做天天爱夜夜想毛片 | 久久精品女人天堂 | 午夜精品在线 | 日本一级成人毛片免费观看 | 色多多www | 四虎影视免费看 | 黄网页在线观看 | 成人午夜大片免费视频77777 | 亚洲免费黄色网址 | 亚洲第8页 | 欧美一卡二三卡四卡不卡 | 中文字幕第一 | 性色欧美| 亚洲第一免费网站 | 香港午夜理理伦_级毛片 | 欧美色综合网站 | 亚洲国产情侣偷自在线二页 | 国产啊v在线观看 | 久久免费视频精品 | 亚洲一级影院 | 国产成人毛片毛片久久网 | 国产裸露片段精华合集链接 | 日本一区二区三区在线观看视频 | 久久草精品 |