在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用知識圖譜作為輸入的表征,研究一個端到端的graph-to-text生成系統(tǒng)

深度學(xué)習(xí)自然語言處理 ? 來源:紙魚AI ? 2020-08-28 10:28 ? 次閱讀

背景

生成表達(dá)復(fù)雜含義的多句文本需要結(jié)構(gòu)化的表征作為輸入,本文使用知識圖譜作為輸入的表征,研究一個端到端的graph-to-text生成系統(tǒng),并將其應(yīng)用到科技類文本寫作領(lǐng)域。作者使用一個科技類文章數(shù)據(jù)集的摘要部分,使用一個IE來為每個摘要提取信息,再將其重構(gòu)成知識圖譜的形式。作者通過實驗表明,將IE抽取到知識用圖來表示會比直接使用實體有更好的生成效果。

graph-to-text的一個重要任務(wù)是從 Abstract Meaning Representation (AMR) graph生成內(nèi)容,其中圖的編碼方法主要有g(shù)raph convolution encoder,graph attention encoder,graph LSTM,本文的模型是graph attention encoder的一個延伸。

數(shù)據(jù)集

作者構(gòu)建了一個Abstract GENeration Dataset(AGENDA),該數(shù)據(jù)包含40k個AI會議的論文標(biāo)題和摘要。對于數(shù)據(jù)集中的每篇摘要,首先使用SciIE來獲取摘要中的命名實體及實體之間的關(guān)系(Compare, Used-for, Feature-of, Hyponymof,Evaluate-for, and Conjunction),隨后將得到的這些組織成無連接帶標(biāo)簽圖的形式。

模型

GraphWriter模型總覽

編碼器

構(gòu)建圖

將之前數(shù)據(jù)集中的無連接帶標(biāo)簽圖,轉(zhuǎn)化為有連接無標(biāo)簽圖,具體做法為:原圖中的每個表示關(guān)系的邊用兩個節(jié)點替代,一個表示正向的關(guān)系,一個表示反向的關(guān)系;增加一個與所有實體節(jié)點連接全局向量節(jié)點,該向量將會被用來作為解碼器的初始輸入。下圖中表示實體節(jié)點,表示關(guān)系,表示全局向量節(jié)點

最終得到的有連接,無標(biāo)簽圖為G=(V,E),其中V表示實體/關(guān)系/全局向量節(jié)點,E表示連接矩陣(注意這里的G和V區(qū)別上述圖中的G和v)。

Graph Transformer

Graph Transformer由L個Block Network疊加構(gòu)成,在每個Block內(nèi),節(jié)點的嵌入首先送入Graph Attention模塊。這里使用多頭自注意力機(jī)制,每個節(jié)點表征通過與其連接的節(jié)點使用注意力,來得到上下文相關(guān)的表征。得到的表征隨后再送入正則化層和一個兩層的前饋神經(jīng)網(wǎng)絡(luò)層。最后一層的得到的即表示上下文后的實體,關(guān)系,全局向量節(jié)點。

解碼器

在每個時間步t使用隱藏狀態(tài)來計算圖和標(biāo)題的上下文向量和,其中通過使用多頭注意力得到,

也通過類似的方式得到,最終的上下文向量是兩者的疊加。隨后使用類似pointer-network的方法來生成一個新詞或復(fù)制一個詞,

實驗

實驗包含自動和人工評估,在自動評估中,GraphWriter代表本篇文章的模型,GAT中將Graph Transformer encoder使用一個Graph Attention Network替換,Entity Writer僅使用到了實體和標(biāo)題沒有圖的關(guān)系信息,Rewriter僅僅使用了文章的標(biāo)題,

從上圖可以看到,使用標(biāo)題,實體,關(guān)系的模型(GraphWriter和GAT)的表現(xiàn)要顯著好于使用更少信息的模型。在人工評估中,使用Best-Worst Scaling,

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25304
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    151

    瀏覽量

    6414
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    7941

原文標(biāo)題:【論文解讀】基于圖Transformer從知識圖譜中生成文本

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    文帶你厘清自動駕駛架構(gòu)差異

    大模型則嘗試直接將傳感器輸入映射到車輛控制指令上,實現(xiàn)聯(lián)合優(yōu)化。雖同為
    的頭像 發(fā)表于 05-08 09:07 ?203次閱讀
    <b class='flag-5'>一</b>文帶你厘清自動駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異

    小米汽車智駕技術(shù)介紹

    后起之秀,小米在宣布造車前被非常多的人質(zhì)疑,但在“真香”定律下,小米創(chuàng)下了很多友商所不能及的成就。作為科技企業(yè),小米也在智能駕駛領(lǐng)域也不斷研發(fā)及突破,并推送了自動駕駛
    的頭像 發(fā)表于 03-31 18:17 ?3311次閱讀
    小米汽車<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>智駕技術(shù)介紹

    自動駕駛技術(shù)研究與分析

    編者語:「智駕最前沿」微信公眾號后臺回復(fù):C-0450,獲取本文參考報告:《自動駕駛行業(yè)研究報告》pdf下載方式。 自動駕駛進(jìn)入2024年,
    的頭像 發(fā)表于 12-19 13:07 ?806次閱讀

    黑芝麻智能算法參考模型公布

    黑芝麻智能計劃推出支持華山及武當(dāng)系列芯片的算法參考方案。該方案采用One Model架構(gòu),并在決策規(guī)劃單元引入了VLM視覺語言大模型和PRR行車規(guī)則的概率化表征子模塊,進(jìn)
    的頭像 發(fā)表于 12-03 12:30 ?820次閱讀
    黑芝麻智能<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>算法參考模型公布

    爆火的如何加速智駕落地?

    編者語:「智駕最前沿」微信公眾號后臺回復(fù):C-0551,獲取本文參考報告:《智能汽車技術(shù)研究報告》pdf下載方式。 “
    的頭像 發(fā)表于 11-26 13:17 ?995次閱讀
    爆火的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>如何加速智駕落地?

    連接視覺語言大模型與自動駕駛

    自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓(xùn)練,展現(xiàn)出很強(qiáng)的決策規(guī)劃能力,但是面對復(fù)雜罕見的駕駛場景,依然存在局限性,這是因為
    的頭像 發(fā)表于 11-07 15:15 ?644次閱讀
    連接視覺語言大模型與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動駕駛

    測試用例怎么寫

    編寫測試用例是確保軟件系統(tǒng)從頭到尾能夠正常工作的關(guān)鍵步驟。以下是詳細(xì)的指南,介紹如何編
    的頭像 發(fā)表于 09-20 10:29 ?907次閱讀

    實現(xiàn)自動駕駛,唯有

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標(biāo)都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?1342次閱讀
    實現(xiàn)自動駕駛,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    如何判斷同相輸入和反相輸入

    和兩輸入端口,即同相輸入(Non-inverting Input)和反相輸入(Invert
    的頭像 發(fā)表于 07-31 10:54 ?3944次閱讀

    輸入和雙輸入的區(qū)別是什么

    信號通常連接到電路的端點,而另一個端點則接地或接參考電壓。 1.1 單輸入的原理 單
    的頭像 發(fā)表于 07-31 10:50 ?4309次閱讀

    與非門的閑置輸入如何處理

    在數(shù)字電路設(shè)計中,與非門(NAND gate)是種基本的邏輯門,它具有兩或多個輸入
    的頭像 發(fā)表于 07-30 14:47 ?2652次閱讀

    三星電子將收購英國知識圖譜技術(shù)初創(chuàng)企業(yè)

    在人工智能技術(shù)日新月異的今天,三星電子公司再次展現(xiàn)了其前瞻性的戰(zhàn)略布局與技術(shù)創(chuàng)新實力。近日,三星正式宣布完成了對英國領(lǐng)先的人工智能(AI)與知識圖譜技術(shù)初創(chuàng)企業(yè)Oxford Semantic Technologies的收購,此舉標(biāo)志著三星在提升設(shè)備AI能力、深化個性化用
    的頭像 發(fā)表于 07-18 14:46 ?727次閱讀

    知識圖譜與大模型之間的關(guān)系

    在人工智能的廣闊領(lǐng)域中,知識圖譜與大模型是兩至關(guān)重要的概念,它們各自擁有獨特的優(yōu)勢和應(yīng)用場景,同時又相互補(bǔ)充,共同推動著人工智能技術(shù)的發(fā)展。本文將從定義、特點、應(yīng)用及相互關(guān)系等方面深入探討知識圖譜與大模型之間的關(guān)系。
    的頭像 發(fā)表于 07-10 11:39 ?1971次閱讀

    比較器輸入和輸出的關(guān)系

    比較器是種電子設(shè)備,用于比較兩電壓或電流信號的大小。比較器的輸入和輸出之間的關(guān)系是其核心功能之
    的頭像 發(fā)表于 07-10 10:39 ?3730次閱讀

    差分放大電路單輸入和雙輸入的區(qū)別

    輸入差分放大電路是指只有輸入的差分放大電路。其主要特點是電路結(jié)構(gòu)簡單,易于實現(xiàn),但
    的頭像 發(fā)表于 07-08 14:54 ?5261次閱讀
    主站蜘蛛池模板: 日本午夜大片 | 国产在线视频网站 | 天天插天天狠天天透 | 亚洲一区二区在线播放 | 午夜看一级特黄a大片黑 | 国产在线观看www鲁啊鲁免费 | 五月婷婷色 | 国模私拍大尺度视频在线播放 | se色综合视频 | 四虎库| 亚洲综合五月天欧美 | 日本黄色免费电影 | 7799国产精品久久久久99 | 国产免费高清福利拍拍拍 | 欧美精品专区55页 | 亚洲综合色一区二区三区小说 | 俺来色| 免费在线h视频 | 色狠狠综合网 | 成人影院久久久久久影院 | 色多多视频成人影院 | 午夜国产福利在线 | 国产精品三级国语在线看 | 我被黑人巨大开嫩苞在线观看 | 婷婷在线五月 | 久久天天躁夜夜躁狠狠85台湾 | 欧美一区二区在线观看视频 | 午夜理伦片免费 | 一个人看的www片免费高清视频 | 999精品国产 | 国产高清美女一级a毛片 | 黄色录像视频网站 | 久久午夜精品 | 色窝网| 日韩一级片免费观看 | 一区二区免费 | 日本黄色片黄色片 | 美女视频永久黄网站免费观看国产 | 四虎影院永久在线 | 亚洲一区二区免费在线观看 | 男女在线观看视频 |