在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

知識(shí)圖譜與大模型結(jié)合方法概述

華為DevCloud ? 來源:未知 ? 2023-10-29 15:50 ? 次閱讀

本文作者 | 黃巍

《Unifying Large Language Models and Knowledge Graphs: A Roadmap》總結(jié)了大語言模型和知識(shí)圖譜融合的三種路線:1)KG增強(qiáng)的LLM,可在LLMs的預(yù)訓(xùn)練和推理階段引入KGs;2)LLM增強(qiáng)KG,LLM可用于KG構(gòu)建、KG embedding、KG補(bǔ)全、基于KG的文本生成、KBQA(基于圖譜的問答)等多種場(chǎng)景;3)LLM+KG協(xié)同使用,主要用于知識(shí)表示和推理兩個(gè)方面。該文綜述了以上三個(gè)路線的代表性研究,探討了未來可能的研究方向。

知識(shí)圖譜(KG)和大語言模型(LLM)都是知識(shí)的表示形式。KG是符號(hào)化的知識(shí)庫,具備一定推理能力,且結(jié)果可解釋性較好。但存在構(gòu)建成本高、泛化能力不足、更新難等不足。LLM是參數(shù)化的概率知識(shí)庫,具備較強(qiáng)語義理解和泛化能力,但它是黑盒模型,可能編造子虛烏有的內(nèi)容,結(jié)果的可解釋性較差。可見,將LLM和KG協(xié)同使用,同時(shí)利用它們的優(yōu)勢(shì),是一種互補(bǔ)的做法。

wKgZomU-D9WABEmCAACDJaTqIbk703.png

LLM和KG的融合路線,可分為以下類型:

wKgZomU-D9WAWM3wAADglL6UMl0258.png

第一種融合路線是KG增強(qiáng)LLM,可在LLM預(yù)訓(xùn)練、推理階段引入KG。以KG增強(qiáng)LLM預(yù)訓(xùn)練為例,一個(gè)代表工作是百度的ERNIE 3.0將圖譜三元組轉(zhuǎn)換成一段token文本作為輸入,并遮蓋其實(shí)體或者關(guān)系來進(jìn)行預(yù)訓(xùn)練,使模型在預(yù)訓(xùn)練階段直接學(xué)習(xí)KG蘊(yùn)含的知識(shí)。

wKgZomU-D9aAHQU4AACBLP79zBo093.png

第二種融合路線是LLM增強(qiáng)KG。LLM可用于KG構(gòu)建、KG embedding、KG補(bǔ)全、基于KG的文本生成、KBQA(基于圖譜的問答)等多種場(chǎng)景。以KG構(gòu)建為例,這是一項(xiàng)成本很高的工作,一般包含1) entity discovery 實(shí)體挖掘 2) coreference resolution 指代消解 3) relation extraction 關(guān)系抽取任務(wù)。LLM本身蘊(yùn)含知識(shí),且具備較強(qiáng)的語義理解能力,因此,可利用LLM從原始數(shù)據(jù)中抽取實(shí)體、關(guān)系,進(jìn)而構(gòu)建知識(shí)圖譜。

wKgZomU-D9aAMineAACkS7JiANc980.png

第三種融合路線是KG+LLM協(xié)同使用,主要用于知識(shí)表示和推理兩個(gè)方面。以知識(shí)表示為例,文本語料庫和知識(shí)圖譜都蘊(yùn)含了大量的知識(shí),文本中的知識(shí)通常是非結(jié)構(gòu)化的,圖譜里的知識(shí)則是結(jié)構(gòu)化的,針對(duì)一些下游任務(wù),需要將其對(duì)齊進(jìn)行統(tǒng)一的表示。比如,KEPLER是一個(gè)統(tǒng)一的模型來進(jìn)行統(tǒng)一表示,它將文本通過LLM轉(zhuǎn)成embedding表示,然后把KG embedding的優(yōu)化目標(biāo)和語言模型的優(yōu)化目標(biāo)結(jié)合起來,一起作為KEPLER模型的優(yōu)化目標(biāo),最后得到一個(gè)能聯(lián)合表示文本語料和圖譜的模型。示意圖如下:

wKgZomU-D9aAK95VAABY9WjcPUQ072.pngwKgZomVA6_OAdWxgAAAChhq5BME149.svg

小結(jié)

上述方法都在嘗試打破LLM和KG兩類不同知識(shí)表示的邊界,促使LLM這種概率模型能利用KG靜態(tài)的、符號(hào)化的知識(shí);促使KG能利用LLM參數(shù)化的概率知識(shí)。從現(xiàn)有落地案例來看,大模型對(duì)知識(shí)的抽象程度高,泛化能力強(qiáng),用戶開箱即用,體驗(yàn)更好。且如果采用大模型+搜索的方案,用戶更新知識(shí)的成本也較低,往知識(shí)庫加文檔即可。在實(shí)際業(yè)務(wù)場(chǎng)景落地時(shí),如果條件允許,優(yōu)先考慮使用大模型。當(dāng)前chatGPT火爆,也印證了其可用性更好。如遇到以下場(chǎng)景時(shí),可以考慮將LLM和KG結(jié)合使用:

?對(duì)知識(shí)可信度和可解釋性要求高的場(chǎng)景,比如醫(yī)療、法律等,可以考慮再建設(shè)知識(shí)圖譜來降低大模型回答錯(cuò)誤知識(shí)的概率,提高回答的可信度和可解釋性。

?已經(jīng)有一個(gè)蘊(yùn)含豐富知識(shí)的圖譜,再做大模型建設(shè)時(shí)。可以參考KG增強(qiáng)LLM的方法,將其知識(shí)融合到LLM中。

?涉及基于圖譜的多條推理能力的場(chǎng)景。

?涉及基于圖譜可視化展示的場(chǎng)景,比如企查查、天眼查等。

參考文獻(xiàn):

1.Unifying Large Language Models and Knowledge Graphs: A Roadmaphttps://arxiv.org/abs/2306.08302


原文標(biāo)題:知識(shí)圖譜與大模型結(jié)合方法概述

文章出處:【微信公眾號(hào):華為DevCloud】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 華為
    +關(guān)注

    關(guān)注

    216

    文章

    34536

    瀏覽量

    253006

原文標(biāo)題:知識(shí)圖譜與大模型結(jié)合方法概述

文章出處:【微信號(hào):華為DevCloud,微信公眾號(hào):華為DevCloud】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    微軟發(fā)布《GraphRAG實(shí)踐應(yīng)用白皮書》助力開發(fā)者

    近日,微軟針對(duì)開發(fā)者群體,重磅推出了《GraphRAG實(shí)踐應(yīng)用白皮書》。該白皮書全面而深入地涵蓋了知識(shí)圖譜的核心內(nèi)容,為開發(fā)者和企業(yè)提供了寶貴的指導(dǎo)和啟示。 從知識(shí)圖譜的基礎(chǔ)概念出發(fā),白皮書詳細(xì)闡述
    的頭像 發(fā)表于 01-13 16:11 ?365次閱讀

    利智方:驅(qū)動(dòng)企業(yè)知識(shí)管理與AI創(chuàng)新加速的平臺(tái)

    利智方致力于深度整合企業(yè)知識(shí)資產(chǎn),全面打通知識(shí)生命周期的各個(gè)環(huán)節(jié)。通過構(gòu)建強(qiáng)大的知識(shí)庫和精準(zhǔn)的知識(shí)圖譜,支持快速定制和部署各類AI應(yīng)用,為企業(yè)創(chuàng)新發(fā)展提供堅(jiān)實(shí)的技術(shù)支撐。可多維度提升企
    的頭像 發(fā)表于 12-30 11:07 ?356次閱讀

    傳音旗下人工智能項(xiàng)目榮獲2024年“上海產(chǎn)學(xué)研合作優(yōu)秀項(xiàng)目獎(jiǎng)”一等獎(jiǎng)

    和華東師范大學(xué)聯(lián)合申報(bào)的“跨語言知識(shí)圖譜構(gòu)建與推理技術(shù)研究及應(yīng)用”項(xiàng)目憑借創(chuàng)新性和技術(shù)先進(jìn)性榮獲一等獎(jiǎng)。該項(xiàng)目成功突破了多形態(tài)信息抽取技術(shù)、跨語言知識(shí)圖譜對(duì)齊技術(shù)和知識(shí)問答對(duì)
    的頭像 發(fā)表于 12-16 17:04 ?387次閱讀
    傳音旗下人工智能項(xiàng)目榮獲2024年“上海產(chǎn)學(xué)研合作優(yōu)秀項(xiàng)目獎(jiǎng)”一等獎(jiǎng)

    三星自主研發(fā)知識(shí)圖譜技術(shù),強(qiáng)化Galaxy AI用戶體驗(yàn)與數(shù)據(jù)安全

    據(jù)外媒11月7日?qǐng)?bào)道,三星電子全球AI中心總監(jiān)Kim Dae-hyun近日透露,公司正致力于自主研發(fā)知識(shí)圖譜技術(shù),旨在進(jìn)一步優(yōu)化Galaxy AI的功能,提升其易用性,并加強(qiáng)用戶數(shù)據(jù)的隱私保護(hù)。
    的頭像 發(fā)表于 11-07 15:19 ?786次閱讀

    想要了解下大模型知識(shí)

    工作需要,想要了解一下大模型算力建設(shè)知識(shí)
    發(fā)表于 08-20 15:31

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    token; 緊隨token之后,作者講解了基于自回歸模型的字符預(yù)測(cè)方法以及文本生成原理,這些知識(shí)對(duì)我來說有些晦澀難懂,如果要熟練掌握是需要一些時(shí)間的,只能后續(xù)抽空仔細(xì)研讀,暫且跳過繼續(xù)閱讀,后面
    發(fā)表于 07-25 14:33

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書

    的大語言模型設(shè)計(jì)技術(shù)人員閱讀,主要包括大語言模型的優(yōu)化方法、Agent系統(tǒng)調(diào)優(yōu)以及模型的安全技術(shù)。 展望篇分析了大語言模型的發(fā)展前景,介紹了
    發(fā)表于 07-21 13:35

    三星電子將收購英國知識(shí)圖譜技術(shù)初創(chuàng)企業(yè)

    在人工智能技術(shù)日新月異的今天,三星電子公司再次展現(xiàn)了其前瞻性的戰(zhàn)略布局與技術(shù)創(chuàng)新實(shí)力。近日,三星正式宣布完成了對(duì)英國領(lǐng)先的人工智能(AI)與知識(shí)圖譜技術(shù)初創(chuàng)企業(yè)Oxford Semantic Technologies的收購,此舉標(biāo)志著三星在提升設(shè)備端AI能力、深化個(gè)性化用戶體驗(yàn)方面邁出了重要一步。
    的頭像 發(fā)表于 07-18 14:46 ?577次閱讀

    知識(shí)圖譜與大模型之間的關(guān)系

    在人工智能的廣闊領(lǐng)域中,知識(shí)圖譜與大模型是兩個(gè)至關(guān)重要的概念,它們各自擁有獨(dú)特的優(yōu)勢(shì)和應(yīng)用場(chǎng)景,同時(shí)又相互補(bǔ)充,共同推動(dòng)著人工智能技術(shù)的發(fā)展。本文將從定義、特點(diǎn)、應(yīng)用及相互關(guān)系等方面深入探討知識(shí)圖譜與大
    的頭像 發(fā)表于 07-10 11:39 ?1217次閱讀

    Al大模型機(jī)器人

    )大模型AI機(jī)器人采用中英文雙語應(yīng)用,目前的知識(shí)圖譜包括了金航標(biāo)和薩科微所有的產(chǎn)品內(nèi)容、應(yīng)用場(chǎng)景、產(chǎn)品的家屬參數(shù)等,熱賣的型號(hào)S8050、TL431、SS8550、FR107、LM321、ZMM5V6
    發(fā)表于 07-05 08:52

    模型應(yīng)用之路:從提示詞到通用人工智能(AGI)

    鋪平道路。 基于AI大模型的推理功能,結(jié)合了RAG(檢索增強(qiáng)生成)、智能體(Agent)、知識(shí)庫、向量數(shù)據(jù)庫、知識(shí)圖譜等先進(jìn)技術(shù),我們向?qū)崿F(xiàn)真正的AGI(通用人工智能)邁出了重要步伐。
    的頭像 發(fā)表于 06-14 10:20 ?2377次閱讀
    大<b class='flag-5'>模型</b>應(yīng)用之路:從提示詞到通用人工智能(AGI)

    澳鵬入選億歐大模型基礎(chǔ)層圖譜,以優(yōu)質(zhì)數(shù)據(jù)賦能AGI智能涌現(xiàn)

    近日發(fā)布《2024中國"百模大戰(zhàn)"競(jìng)爭(zhēng)格局分析報(bào)告》,全方位呈現(xiàn)大模型產(chǎn)業(yè)現(xiàn)狀。作為產(chǎn)業(yè)鏈上的重要一環(huán),澳鵬Appen憑借高質(zhì)量的大模型數(shù)據(jù)能力入選大模型基礎(chǔ)層圖譜。與此同時(shí),作為大
    的頭像 發(fā)表于 05-27 17:01 ?405次閱讀
    澳鵬入選億歐大<b class='flag-5'>模型</b>基礎(chǔ)層<b class='flag-5'>圖譜</b>,以優(yōu)質(zhì)數(shù)據(jù)賦能AGI智能涌現(xiàn)

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    相關(guān)的文檔片段,將這些文檔與用戶問題結(jié)合成提示詞,再輸入給大語言模型。這種方法為大語言模型提供了問題背景知識(shí),有效減少了“幻覺”現(xiàn)象的出現(xiàn)。
    發(fā)表于 05-07 17:21

    利用知識(shí)圖譜與Llama-Index技術(shù)構(gòu)建大模型驅(qū)動(dòng)的RAG系統(tǒng)(下)

    對(duì)于語言模型(LLM)幻覺,知識(shí)圖譜被證明優(yōu)于向量數(shù)據(jù)庫。知識(shí)圖譜提供更準(zhǔn)確、多樣化、有趣、邏輯和一致的信息,減少了LLM中出現(xiàn)幻覺的可能性。
    的頭像 發(fā)表于 02-22 14:13 ?1314次閱讀
    利用<b class='flag-5'>知識(shí)圖譜</b>與Llama-Index技術(shù)構(gòu)建大<b class='flag-5'>模型</b>驅(qū)動(dòng)的RAG系統(tǒng)(下)

    利用知識(shí)圖譜與Llama-Index技術(shù)構(gòu)建大模型驅(qū)動(dòng)的RAG系統(tǒng)(上)

    向量數(shù)據(jù)庫是一組高維向量的集合,用于表示實(shí)體或概念,例如單詞、短語或文檔。向量數(shù)據(jù)庫可以根據(jù)實(shí)體或概念的向量表示來度量它們之間的相似性或關(guān)聯(lián)性。
    的頭像 發(fā)表于 02-22 14:07 ?1228次閱讀
    利用<b class='flag-5'>知識(shí)圖譜</b>與Llama-Index技術(shù)構(gòu)建大<b class='flag-5'>模型</b>驅(qū)動(dòng)的RAG系統(tǒng)(上)
    主站蜘蛛池模板: 免费一级特黄特色大片在线 | 色噜噜噜噜噜在线观看网站 | 777奇米影视笫四色88me久久综合 | 最近国语视频免费观看在线播放 | 宅男噜噜噜66| 色综合天天综久久久噜噜噜久久〔 | 久久性久久性久久久爽 | 久久精品网站免费观看 | 免费欧美黄色片 | 啪啪免费网 | 美女用手扒开尿口给男生桶爽 | 黄色视屏在线免费播放 | 亚洲色图 在线视频 | 五月激情婷婷网 | 精品欧美 | 黄色网址你懂得 | 日本成人a视频 | 99久热成人精品视频 | 天天做天天爱天天爽综合区 | 人人澡人人澡碰人人看软件 | 亚洲怡红院在线 | 天天操天天操天天操 | 久久天天躁狠狠躁夜夜呲 | 色偷偷网址| 天堂w| 亚洲色图图片区 | 激情六月综合 | 朱元璋传奇1998王耿豪版 | 亚洲免费视频在线观看 | 天堂在线中文无弹窗全文阅读 | 日本小视频免费 | 亚洲狼色专区 | 午夜亚洲精品 | 国语自产免费精品视频一区二区 | 国产综合视频在线观看 | 性欧美丰满xxxx性久久久 | 手机看片日本 | 国产精品香蕉成人网在线观看 | 成年女人在线观看 | 日韩毛片在线 | ts在线视频|