在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP中Prompt的產(chǎn)生和興起

深度學(xué)習(xí)自然語言處理 ? 來源:RUC AI Box ? 作者:閔映乾 ? 2021-09-12 14:52 ? 次閱讀

導(dǎo)讀:本文目標(biāo)是對(duì)近期火爆異常的Prompt相關(guān)研究作一些追溯和展望,內(nèi)容主要參考論文《Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing》,并摻雜了筆者的一些個(gè)人見解,歡迎大家積極討論~所用圖片均來自該論文。

論文的arxiv鏈接如下:

https://arxiv.org/abs/2107.13586

本文的內(nèi)容框架如下:

一、Prompt的產(chǎn)生和興起

二、什么是Prompt

三、Prompt的設(shè)計(jì)方法

四、Prompt的挑戰(zhàn)和展望

一、Prompt的產(chǎn)生和興起

近幾年來,有關(guān)預(yù)訓(xùn)練語言模型(PLM)的研究比比皆是,自然語言處理(NLP)也借著這股春風(fēng)獲得了長(zhǎng)足發(fā)展。尤其是在2017-2019年間,研究者們的重心逐漸從傳統(tǒng)task-specific的有監(jiān)督模式轉(zhuǎn)移到預(yù)訓(xùn)練上?;陬A(yù)訓(xùn)練語言模型的研究思路通常是“pre-train, fine-tune”,即將PLM應(yīng)用到下游任務(wù)上,在預(yù)訓(xùn)練階段和微調(diào)階段根據(jù)下游任務(wù)設(shè)計(jì)訓(xùn)練對(duì)象并對(duì)PLM本體進(jìn)行調(diào)整。

隨著PLM體量的不斷增大,對(duì)其進(jìn)行fine-tune的硬件要求、數(shù)據(jù)需求和實(shí)際代價(jià)也在不斷上漲。除此之外,豐富多樣的下游任務(wù)也使得預(yù)訓(xùn)練和微調(diào)階段的設(shè)計(jì)變得繁瑣復(fù)雜,因此研究者們希望探索出更小巧輕量、更普適高效的方法,Prompt就是一個(gè)沿著此方向的嘗試。

融入了Prompt的新模式大致可以歸納成”pre-train, prompt, and predict“,在該模式中,下游任務(wù)被重新調(diào)整成類似預(yù)訓(xùn)練任務(wù)的形式。例如,通常的預(yù)訓(xùn)練任務(wù)有Masked Language Model, 在文本情感分類任務(wù)中,對(duì)于 “I love this movie.” 這句輸入,可以在后面加上prompt “The movie is ___” 這樣的形式,然后讓PLM用表示情感的答案填空如 “great”、“fantastic” 等等,最后再將該答案轉(zhuǎn)化成情感分類的標(biāo)簽,這樣以來,通過選取合適的prompt,我們可以控制模型預(yù)測(cè)輸出,從而一個(gè)完全無監(jiān)督訓(xùn)練的PLM可以被用來解決各種各樣的下游任務(wù)。

因此,合適的prompt對(duì)于模型的效果至關(guān)重要。大量研究表明,prompt的微小差別,可能會(huì)造成效果的巨大差異。研究者們就如何設(shè)計(jì)prompt做出了各種各樣的努力——自然語言背景知識(shí)的融合、自動(dòng)生成prompt的搜索、不再拘泥于語言形式的prompt探索等等,筆者將會(huì)在第三節(jié)進(jìn)行進(jìn)一步討論。

二、什么是Prompt

Prompt剛剛出現(xiàn)的時(shí)候,還沒有被叫做Prompt,是研究者們?yōu)榱讼掠稳蝿?wù)設(shè)計(jì)出來的一種輸入形式或模板,它能夠幫助PLM“回憶”起自己在預(yù)訓(xùn)練時(shí)“學(xué)習(xí)”到的東西,因此后來慢慢地被叫做Prompt了。

對(duì)于輸入的文本,有函數(shù),將轉(zhuǎn)化成prompt的形式,即:

該函數(shù)通常會(huì)進(jìn)行兩步操作:

使用一個(gè)模板,模板通常為一段自然語言,并且包含有兩個(gè)空位置:用于填輸入的位置和用于生成答案文本的位置。

把輸入填到的位置。

還用前文提到的例子。在文本情感分類的任務(wù)中,假設(shè)輸入是

“ I love this movie.”

使用的模板是

“ [X] Overall, it was a [Z] movie.”

那么得到的就應(yīng)該是 “I love this movie. Overall it was a [Z] movie.”

在實(shí)際的研究中,prompts應(yīng)該有空位置來填充答案,這個(gè)位置一般在句中或者句末。如果在句中,一般稱這種prompt為cloze prompt;如果在句末,一般稱這種prompt為prefix prompt。和的位置以及數(shù)量都可能對(duì)結(jié)果造成影響,因此可以根據(jù)需要靈活調(diào)整。

另外,上面的例子中prompts都是有意義的自然語言,但實(shí)際上其形式并不一定要拘泥于自然語言?,F(xiàn)有相關(guān)研究使用虛擬單詞甚至直接使用向量作為prompt,筆者將會(huì)在第三節(jié)講到。

下一步會(huì)進(jìn)行答案搜索,顧名思義就是LM尋找填在處可以使得分?jǐn)?shù)最高的文本 。最后是答案映射。有時(shí)LM填充的文本并非任務(wù)需要的最終形式,因此要將此文本映射到最終的輸出。例如,在文本情感分類任務(wù)中,“excellent”, “great”, “wonderful” 等詞都對(duì)應(yīng)一個(gè)種類 “++”,這時(shí)需要將詞語映射到標(biāo)簽再輸出。

三、Prompt的設(shè)計(jì)

Prompt大致可以從下面三個(gè)角度進(jìn)行設(shè)計(jì):

Prompt的形狀

手工設(shè)計(jì)模板

自動(dòng)學(xué)習(xí)模板

Prompt的形狀

Prompt的形狀主要指的是和的位置和數(shù)量。上文提到過cloze prompt和prefix prompt的區(qū)別,在實(shí)際應(yīng)用過程中選擇哪一種主要取決于任務(wù)的形式和模型的類別。cloze prompts和Masked Language Model的訓(xùn)練方式非常類似,因此對(duì)于使用MLM的任務(wù)來說cloze prompts更加合適;對(duì)于生成任務(wù)來說,或者使用自回歸LM解決的任務(wù),prefix prompts就會(huì)更加合適;Full text reconstruction models較為通用,因此兩種prompt均適用。另外,對(duì)于文本對(duì)的分類,prompt模板通常要給輸入預(yù)留兩個(gè)空,和。

手工設(shè)計(jì)模板

Prompt最開始就是從手工設(shè)計(jì)模板開始的。手工設(shè)計(jì)一般基于人類的自然語言知識(shí),力求得到語義流暢且高效的模板。例如,Petroni等人在著名的LAMA數(shù)據(jù)集中為知識(shí)探針任務(wù)手工設(shè)計(jì)了cloze templates;Brown等人為問答、翻譯和探針等任務(wù)設(shè)計(jì)了prefix templates。手工設(shè)計(jì)模板的好處是較為直觀,但缺點(diǎn)是需要很多實(shí)驗(yàn)、經(jīng)驗(yàn)以及語言專業(yè)知識(shí),代價(jià)較大。

自動(dòng)學(xué)習(xí)模板

為了解決手工設(shè)計(jì)模板的缺點(diǎn),許多研究開始探究如何自動(dòng)學(xué)習(xí)到合適的模板。自動(dòng)學(xué)習(xí)的模板又可以分為離散(Discrete Prompts)和連續(xù)(Continuous Prompts)兩大類。離散的主要包括 Prompt Mining, Prompt Paraphrasing, Gradient-based Search, Prompt Generation 和 Prompt Scoring;連續(xù)的則主要包括Prefix Tuning, Tuning Initialized with Discrete Prompts 和 Hard-Soft Prompt Hybrid Tuning。

離散Prompts

自動(dòng)生成離散Prompts指的是自動(dòng)生成由自然語言的詞組成的Prompt,因此其搜索空間是離散的。目前大致可以分成下面幾個(gè)方法:

Prompt Mining. 該方法需要一個(gè)大的文本庫支持,例如Wikipedia。給定輸入和輸出,要找到和之間的中間詞或者依賴路徑,然后選取出現(xiàn)頻繁的中間詞或依賴路徑作為模板,即“[X] middle words [Z]”。

Prompt Paraphrasing. Paraphrasing-based方法是基于釋義的,主要采用現(xiàn)有的種子prompts(例如手動(dòng)構(gòu)造),并將其轉(zhuǎn)述成一組其他候選prompts,然后選擇一個(gè)在目標(biāo)任務(wù)上達(dá)到最好效果的。一般的做法有:將提示符翻譯成另一種語言,然后再翻譯回來;使用同義或近義短語來替換等。

Gradient-based Search. 梯度下降搜索的方法是在單詞候選集里選擇詞并組合成prompt,利用梯度下降的方式不斷嘗試組合,從而達(dá)到讓PLM生成需要的詞的目的。

Prompt Generation. 既然Prompt也是一段文本,那是否可以用文本生成的方式來生成Prompt呢?該類方法就是將標(biāo)準(zhǔn)的自然語言生成的模型用于生成prompts了。例如,Gao等人將T5引入了模板搜索的過程,讓T5生成模板詞;Ben-David 等人提出了一種域自適應(yīng)算法,訓(xùn)練T5為每個(gè)輸入生成一種唯一的域相關(guān)特征,然后把輸入和特征連接起來組成模板再用到下游任務(wù)中。

Prompt Scoring. Davison等人在研究知識(shí)圖譜補(bǔ)全任務(wù)的時(shí)候?yàn)槿M輸入(頭實(shí)體,關(guān)系,尾實(shí)體)設(shè)計(jì)了一種模板。首先人工制造一組模板候選,然后把相應(yīng)的[X]和[Z]都填上成為prompts,并使用一個(gè)雙向LM給這些prompts打分,最后選取其中的高分prompt。

連續(xù)Prompts

既然構(gòu)造Prompt的初衷是能夠找到一個(gè)合適的方法,讓PLM更“聽話”地得出我們想要的結(jié)果,那就不必把prompt的形式拘泥于人類可以理解的自然語言了,只要機(jī)器可以理解就好了。因此,還有一些方法探索連續(xù)型prompts——直接作用到模型的embedding空間。連續(xù)型prompts去掉了兩個(gè)約束條件:

模板中詞語的embedding可以是整個(gè)自然語言的embedding,不再只是有限的一些embedding。

模板的參數(shù)不再直接取PLM的參數(shù),而是有自己獨(dú)立的參數(shù),可以通過下游任務(wù)的訓(xùn)練數(shù)據(jù)進(jìn)行調(diào)整。

目前的連續(xù)prompts方法大致可以分為下面幾種:

Prefix Tuning. Prefix Tuning最開始由Li等人提出,是一種在輸入前添加一串連續(xù)的向量的方法,該方法保持PLM的參數(shù)不動(dòng),僅訓(xùn)練合適的前綴(prefix)。它的形式化定義是,在給定一個(gè)可訓(xùn)練的前綴矩陣和一個(gè)固定的參數(shù)化為的PLM的對(duì)數(shù)似然目標(biāo)上進(jìn)行優(yōu)化。

613a0a50-125f-11ec-8fb8-12bb97331649.png

其中

6146ae54-125f-11ec-8fb8-12bb97331649.png

指的是所有神經(jīng)網(wǎng)絡(luò)層在第i個(gè)時(shí)間步的連接。如果對(duì)應(yīng)的時(shí)間步在前綴中,則它可以直接從前綴矩陣中復(fù)制過來;否則需要使用PLM進(jìn)行計(jì)算。

類似地,Lester等人在輸入序列前面加上特殊的token來組成一個(gè)模板,然后直接調(diào)整這些token的embedding。 和上面的Prefix Tuning的方法相比,他們的方法相對(duì)來說參數(shù)較少,因?yàn)闆]有在每一層網(wǎng)絡(luò)中引入額外的參數(shù)。

Tuing Initialized with Discrete Prompts. 這類方法中連續(xù)prompts是用已有的prompts初始化的,已有的prompts可以是手工設(shè)計(jì)的,也可以是之前搜索發(fā)現(xiàn)的離散prompts。Zhong 等人先用一個(gè)離散prompt搜索方法定義了一個(gè)模板,然后基于該模板初始化虛擬的token,最后微調(diào)這些token的embedding以提高準(zhǔn)確率。

Hard-Soft Prompt Hybrid Tuning. 這類方法可以說是手工設(shè)計(jì)和自動(dòng)學(xué)習(xí)的結(jié)合,它通常不單純使用可學(xué)習(xí)的prompt模板,而是在手工設(shè)計(jì)的模板中插入一些可學(xué)習(xí)的embedding。Liu等人提出了“P-Tuning”方法,通過在input embedding中插入可訓(xùn)練的變量來學(xué)習(xí)連續(xù)的prompts。并且,該方法使用BiLSTM的輸出來表示prompt embeddings,以便讓prompt tokens之間有一定的交互。P-tuning還引入了任務(wù)相關(guān)的anchor tokens(例如關(guān)系提取中的“capital”)來進(jìn)一步提高效果,這些anchor tokens不參與后續(xù)的調(diào)優(yōu)。Han等人提出了Prompt Tunning with Rules(PTR)方法,使用手工指定的子模板按照邏輯規(guī)則組裝成完整的模板。為了增強(qiáng)生成的模板的表示能力,該方法還插入了幾個(gè)虛擬token,這些虛擬token的embeddings可以和PLM的參數(shù)一起被調(diào)整,PTR的模板token既有實(shí)際token也有虛擬token 。實(shí)驗(yàn)結(jié)果證明了該方法在關(guān)系分類任務(wù)中的有效性。四、Prompt的挑戰(zhàn)與展望

盡管Prompt相關(guān)研究搞得如火如荼,但目前仍存在許多問題,值得研究者們?nèi)ヌ剿鳌?/p>

Prompt的設(shè)計(jì)問題。目前使用Prompt的工作大多集中育分類任務(wù)和生成任務(wù),其它任務(wù)則較少,因?yàn)槿绾斡行У貙㈩A(yù)訓(xùn)練任務(wù)和prompt聯(lián)系起來還是一個(gè)值得探討的問題。另外,模板和答案的聯(lián)系也函待解決。模型的表現(xiàn)同時(shí)依賴于使用的模板和答案的轉(zhuǎn)化,如何同時(shí)搜索或者學(xué)習(xí)出兩者聯(lián)合的最好效果仍然很具挑戰(zhàn)性。

Prompt的理論分析和可解釋性。盡管Prompt方法在很多情況下都取得了成功,但是目前prompt-based learning的理論分析和保證還很少,使得人們很難了解Prompt為什么能達(dá)到好的效果,又為什么在自然語言中意義相近的Prompt有時(shí)效果卻相差很大。

Prompt在PLM debias方面的應(yīng)用。由于PLM在預(yù)訓(xùn)練過程中見過了大量的人類世界的自然語言,所以很自然地受到了影響。拿一個(gè)簡(jiǎn)單的例子來說,可能不太恰當(dāng),比如說訓(xùn)練語料中有很多的“The capital of China is ”Beijing.“,導(dǎo)致模型認(rèn)為下次看到”capital“ 的時(shí)候都會(huì)預(yù)測(cè)出”Beijing“,而不是著重看到底是哪個(gè)國(guó)家的首都。在應(yīng)用的過程中,Prompt還暴露了PLM學(xué)習(xí)到的很多其它bias,比如種族歧視、恐怖主義、性別對(duì)立等等。已有相關(guān)研究關(guān)注是否可以利用Prompt來對(duì)這些bias進(jìn)行修正,但還處在比較初級(jí)的階段,這也會(huì)是一個(gè)值得研究的方向。

五、引用

[1] Liu P, Yuan W, Fu J, et al. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing[J]。 arXiv preprint arXiv:2107.13586, 2021.

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4810

    瀏覽量

    102935
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22516

原文標(biāo)題:NLP新寵——淺談Prompt的前世今生

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI對(duì)話魔法 Prompt Engineering 探索指南

    作者:京東物流 李雪婷 一、什么是 Prompt Engineering? 想象一下,你在和一個(gè)智能助手聊天,你需要說出非常清晰和具體的要求,才能得到你想要的答案。Prompt
    的頭像 發(fā)表于 11-07 10:11 ?1372次閱讀
    AI對(duì)話魔法 <b class='flag-5'>Prompt</b> Engineering 探索指南

    霍爾效應(yīng)磁場(chǎng)怎么產(chǎn)生

    在霍爾效應(yīng),磁場(chǎng)的產(chǎn)生是外部提供的,而不是由霍爾效應(yīng)本身產(chǎn)生的。具體來說,磁場(chǎng)通常由外部電源提供的勵(lì)磁電流產(chǎn)生。 磁場(chǎng)產(chǎn)生的方式 在霍爾效
    的頭像 發(fā)表于 10-15 09:46 ?1389次閱讀

    nlp邏輯層次模型的特點(diǎn)

    層次是NLP邏輯層次模型的最底層,主要關(guān)注單個(gè)詞匯的意義和用法。在這個(gè)層次上,模型需要識(shí)別和理解詞匯的基本屬性,如詞性、詞義、詞形變化等。詞匯層次的特點(diǎn)包括: a. 詞性標(biāo)注:識(shí)別文本每個(gè)詞匯的詞性,如名詞、動(dòng)詞、形容詞等。
    的頭像 發(fā)表于 07-09 10:39 ?767次閱讀

    nlp神經(jīng)語言和NLP自然語言的區(qū)別和聯(lián)系

    神經(jīng)語言(Neuro-Linguistic Programming,NLP) 神經(jīng)語言是一種心理學(xué)方法,它研究人類思維、語言和行為之間的關(guān)系。NLP的核心理念是,我們可以通過改變我們的思維方式和語言
    的頭像 發(fā)表于 07-09 10:35 ?1125次閱讀

    nlp自然語言處理基本概念及關(guān)鍵技術(shù)

    自然語言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。NLP技術(shù)在機(jī)器翻譯、情感分析、語音識(shí)別
    的頭像 發(fā)表于 07-09 10:32 ?1255次閱讀

    nlp自然語言處理框架有哪些

    自然語言處理(Natural Language Processing,簡(jiǎn)稱NLP)是計(jì)算機(jī)科學(xué)和人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解和處理人類語言。隨著技術(shù)的發(fā)展,NLP領(lǐng)域出現(xiàn)了
    的頭像 發(fā)表于 07-09 10:28 ?962次閱讀

    nlp自然語言處理的主要任務(wù)及技術(shù)方法

    自然語言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個(gè)分支,它研究如何讓計(jì)算機(jī)能夠理解、生成和處理人類語言。NLP技術(shù)在許多領(lǐng)域都有廣泛
    的頭像 發(fā)表于 07-09 10:26 ?2012次閱讀

    nlp自然語言處理模型怎么做

    的進(jìn)展。本文將詳細(xì)介紹NLP模型的構(gòu)建過程,包括數(shù)據(jù)預(yù)處理、模型選擇、訓(xùn)練與優(yōu)化等方面。 數(shù)據(jù)預(yù)處理 數(shù)據(jù)預(yù)處理是NLP模型構(gòu)建的第一步,其目的是將原始文本數(shù)據(jù)轉(zhuǎn)換為模型能夠處理的格式。數(shù)據(jù)預(yù)處理主要包括以下幾個(gè)步驟: 1.1 文本清洗 文本清洗是去除文本
    的頭像 發(fā)表于 07-05 09:59 ?1084次閱讀

    nlp自然語言處理的應(yīng)用有哪些

    自然語言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解和生成自然語言。隨著技術(shù)的發(fā)展,NLP已經(jīng)在許多領(lǐng)域得到了廣泛
    的頭像 發(fā)表于 07-05 09:55 ?3540次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度學(xué)習(xí)簡(jiǎn)介 深度學(xué)習(xí)是一種基于人工神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)方法
    的頭像 發(fā)表于 07-05 09:47 ?1547次閱讀

    NLP技術(shù)在機(jī)器人中的應(yīng)用

    在人工智能的廣闊領(lǐng)域中,自然語言處理(NLP)技術(shù)作為連接人類語言與機(jī)器智能的橋梁,正逐漸滲透到我們?nèi)粘I畹姆椒矫婷?,其中機(jī)器人技術(shù)便是一個(gè)尤為突出的應(yīng)用領(lǐng)域。NLP技術(shù)不僅賦予了機(jī)器人理解
    的頭像 發(fā)表于 07-04 16:04 ?907次閱讀

    NLP技術(shù)在人工智能領(lǐng)域的重要性

    在自然語言處理(Natural Language Processing, NLP)與人工智能(Artificial Intelligence, AI)的交織發(fā)展NLP技術(shù)作為連接人類語言與機(jī)器
    的頭像 發(fā)表于 07-04 16:03 ?1172次閱讀

    NLP模型RNN與CNN的選擇

    NLP的應(yīng)用場(chǎng)景、工作原理、優(yōu)缺點(diǎn),以及在選擇時(shí)應(yīng)考慮的關(guān)鍵因素,以期為讀者提供一個(gè)全面而深入的理解。
    的頭像 發(fā)表于 07-03 15:59 ?988次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領(lǐng)域中的一個(gè)重要分支,它專注于構(gòu)建能夠理解和生成人類語言的計(jì)算機(jī)系統(tǒng)。NLP的目標(biāo)是使計(jì)算機(jī)能夠像人類一樣
    的頭像 發(fā)表于 07-02 18:16 ?1860次閱讀

    無人機(jī)自動(dòng)巡檢系統(tǒng)的興起

    ?????? 無人機(jī)自動(dòng)巡檢系統(tǒng)的興起 ?????? 為何無人機(jī)自動(dòng)巡檢系統(tǒng)會(huì)興起? ?????? 傳統(tǒng)人工巡檢是由工作人員實(shí)地查看,肉眼存在盲區(qū),費(fèi)時(shí)費(fèi)力還容易產(chǎn)生漏檢。隨著無人機(jī)進(jìn)入人們的視野
    的頭像 發(fā)表于 06-24 17:30 ?933次閱讀
    主站蜘蛛池模板: 在线免费看污视频 | 亚洲国产成人精品女人久久久 | 中文字幕一区精品欧美 | 国产精品福利一区二区亚瑟 | 中文字幕久久精品波多野结 | 免费精品99久久国产综合精品 | 免费网站黄成人影院 | 四虎影院永久网址 | 狠狠丁香激情久久综合 | 欧美大片一区 | 国产资源网| 久久久噜久噜久久gif动图 | www.午夜视频| 校园春色亚洲欧美 | 国产视频二区 | 国产精品免费一级在线观看 | 中文在线最新版天堂bt | 久色国产 | 东北老女人啪啪对白 | 伦理片日本韩国电影三级在线观看 | 亚洲成a人片在线观看www | 你懂的在线免费 | 九九热在线观看 | 欧美1024 | 午夜欧美精品久久久久久久久 | 夜色伊人| 波多野结衣在线网址 | 免费视频一级片 | 九九热在线免费观看 | 国产精品福利一区二区亚瑟 | 最新sss华人 | 国产叼嘿视频网站在线观看 | 国产精品手机在线 | 天天干天天骑 | 美女网站视频色 | 色噜噜噜 | 久久精品久久久久 | 免费观看老外特级毛片 | 夜夜爽天天狠狠九月婷婷 | 中文字幕亚洲一区二区va在线 | 免费一级毛片在级播放 |