在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

講解將知識圖譜特征學習引入到推薦系統(tǒng)的各種思路與實現(xiàn)方法

8g3K_AI_Thinker ? 來源:未知 ? 作者:李倩 ? 2018-06-11 11:51 ? 次閱讀

在上周發(fā)表的“推薦算法不夠精準?讓知識圖譜來解決”一文中,我們?yōu)榇蠹医榻B了日常生活中幾乎每天都會用到的推薦系統(tǒng),以及用來提高推薦系統(tǒng)精準性、多樣性和可解釋性的推薦算法輔助信息——知識圖譜。今天,我們將進一步為大家講解將知識圖譜特征學習引入到推薦系統(tǒng)的各種思路與實現(xiàn)方法。

將知識圖譜作為輔助信息引入到推薦系統(tǒng)中可以有效地解決傳統(tǒng)推薦系統(tǒng)存在的稀疏性和冷啟動問題,近幾年有很多研究人員在做相關(guān)的工作。目前,將知識圖譜特征學習應(yīng)用到推薦系統(tǒng)中主要通過三種方式——依次學習、聯(lián)合學習、以及交替學習。

依次學習(one-by-one learning)。首先使用知識圖譜特征學習得到實體向量和關(guān)系向量,然后將這些低維向量引入推薦系統(tǒng),學習得到用戶向量和物品向量;

聯(lián)合學習(joint learning)。將知識圖譜特征學習和推薦算法的目標函數(shù)結(jié)合,使用端到端(end-to-end)的方法進行聯(lián)合學習;

交替學習(alternate learning)。將知識圖譜特征學習和推薦算法視為兩個分離但又相關(guān)的任務(wù),使用多任務(wù)學習(multi-task learning)的框架進行交替學習。

依次學習

Deep Knowledge-Aware Network (DKN)

我們以新聞推薦[1]為例來介紹依次學習。如下圖所示,新聞標題和正文中通常存在大量的實體,實體間的語義關(guān)系可以有效地擴展用戶興趣。然而這種語義關(guān)系難以被傳統(tǒng)方法(話題模型、詞向量)發(fā)掘。

為了將知識圖譜引入特征學習,遵循依次學習的框架,我們首先需要提取知識圖譜特征。該步驟的方法如下:

實體連接(entity linking)。即從文本中發(fā)現(xiàn)相關(guān)詞匯,并與知識圖譜中的實體進行匹配;

知識圖譜構(gòu)建。根據(jù)所有匹配到的實體,在原始的知識圖譜中抽取子圖。子圖的大小會影響后續(xù)算法的運行時間和效果:越大的子圖通常會學習到更好的特征,但是所需的運行時間越長;

知識圖譜特征學習。使用知識圖譜特征學習算法(如TransE等)進行學習得到實體和關(guān)系向量。

需要注意的是,為了更準確地刻畫實體,我們額外地使用一個實體的上下文實體特征(contextual entity embeddings)。一個實體e的上下文實體是e的所有一跳鄰居節(jié)點,e的上下文實體特征為e的所有上下文實體特征的平均值:

下圖的綠色橢圓框內(nèi)即為“Fight Club”的上下文實體。

得到實體特征后,我們的第二步是構(gòu)建推薦模型,該模型是一個基于CNN和注意力機制的新聞推薦算法:

基于卷積神經(jīng)網(wǎng)絡(luò)的文本特征提取:將新聞標題的詞向量(word embedding)、實體向量(entity embedding)和實體上下文向量(context embedding)作為多個通道(類似于圖像中的紅綠藍三通道),在CNN的框架下進行融合;

基于注意力機制的用戶歷史興趣融合:在判斷用戶對當前新聞的興趣時,使用注意力網(wǎng)絡(luò)(attention network)給用戶歷史記錄分配不同的權(quán)重。

該模型在新聞推薦上取得了很好的效果:DKN取得了0.689的F1值和0.659的AUC值,并在p=0.1水平上比其它方法取得了顯著的提升。

我們也可以通過注意力權(quán)重的可視化結(jié)果看出,注意力機制的引入對模型的最后輸出產(chǎn)生了積極的影響。由于注意力機制的引入,DKN可以更好地將同類別的新聞聯(lián)系起來,從而提高了最終的正確預(yù)測的數(shù)量:

依次學習的優(yōu)勢在于知識圖譜特征學習模塊和推薦系統(tǒng)模塊相互獨立。在真實場景中,特別是知識圖譜很大的情況下,進行一次知識圖譜特征學習的時間開銷會很大,而一般而言,知識圖譜遠沒有推薦模塊更新地快。因此我們可以先通過一次訓練得到實體和關(guān)系向量,以后每次推薦系統(tǒng)模塊需要更新時都可以直接使用這些向量作為輸入,而無需重新訓練。

依次學習的缺點也正在于此:因為兩個模塊相互獨立,所以無法做到端到端的訓練。通常來說,知識圖譜特征學習得到的向量會更適合于知識圖譜內(nèi)的任務(wù),比如連接預(yù)測、實體分類等,并非完全適合特定的推薦任務(wù)。在缺乏推薦模塊的監(jiān)督信號的情況下,學習得到的實體向量是否真的對推薦任務(wù)有幫助,還需要通過進一步的實驗來推斷。

聯(lián)合學習

聯(lián)合學習的核心是將推薦算法和知識圖譜特征學習的目標融合,并在一個端到端的優(yōu)化目標中進行訓練。我們以CKE[2]和Ripple Network[3]為例介紹聯(lián)合學習。

Collaborative Knowledge base Embedding (CKE)

在推薦系統(tǒng)中存在著很多與知識圖譜相關(guān)的信息,以電影推薦為例:

結(jié)構(gòu)化知識(structural knowledge),例如導演、類別等;

圖像知識(visual knowledge),例如海報、劇照等;

文本知識(textual knowledge),例如電影描述、影評等。

CKE是一個基于協(xié)同過濾和知識圖譜特征學習的推薦系統(tǒng):

CKE使用如下方式進行三種知識的學習:

結(jié)構(gòu)化知識學習:TransR。TransR是一種基于距離的翻譯模型,可以學習得到知識實體的向量表示;

文本知識學習:去噪自編碼器。去噪自編碼器可以學習得到文本的一種泛化能力較強的向量表示;

圖像知識學習:卷積-反卷積自編碼器。卷積-反卷積自編碼器可以得到圖像的一種泛化能力較強的向量表示。

我們將三種知識學習的目標函數(shù)與推薦系統(tǒng)中的協(xié)同過濾結(jié)合,得到如下的聯(lián)合損失函數(shù):

使用諸如隨機梯度下降(SGD)的方法對上述損失函數(shù)進行訓練,我們最終可以得到用戶/物品向量,以及實體/關(guān)系向量。CKE在電影推薦和圖書推薦上取得了很高的Recall值和MAP值:

Ripple Network

Ripple的中文翻譯為“水波”,顧名思義,Ripple Network模擬了用戶興趣在知識圖譜上的傳播過程,整個過程類似于水波的傳播:

一個用戶的興趣以其歷史記錄中的實體為中心,在知識圖譜上向外逐層擴散;

一個用戶的興趣在知識圖譜上的擴散過程中逐漸衰減。

下圖展示了用戶興趣在知識圖譜上擴散的過程。以一個用戶看過的“Forrest Gump”為中心,用戶的興趣沿著關(guān)系邊可以逐跳向外擴展,并在擴展過程中興趣強度逐漸衰減。

下圖展示了Ripple Network的模型。對于給定的用戶u和物品v,我們將歷史相關(guān)實體集合V中的所有實體進行相似度計算,并利用計算得到的權(quán)重值對V中實體在知識圖譜中對應(yīng)的尾節(jié)點進行加權(quán)求和。求和得到的結(jié)果可以視為v在u的一跳相關(guān)實體中的一個響應(yīng)。該過程可以重復在u的二跳、三跳相關(guān)實體中進行,如此,v在知識圖譜上便以V為中心逐層向外擴散。

最終得到的推薦算法和知識圖譜特征學習的聯(lián)合損失函數(shù)如下:

類似于CKE,我們在該損失函數(shù)上訓練即可得到物品向量和實體向量。需要注意的是,Ripple Network中沒有對用戶直接使用向量進行刻畫,而是用用戶點擊過的物品的向量集合作為其特征。Ripple Network在電影、圖書和新聞的點擊率預(yù)測上取得了非常好的效果:

我們將Ripple Network的計算結(jié)果可視化如下。可以看出,知識圖譜連接了用戶的歷史興趣和推薦結(jié)果,其中的若干條高分值的路徑可以視為對推薦結(jié)果的解釋:

聯(lián)合學習的優(yōu)劣勢正好與依次學習相反。聯(lián)合學習是一種端到端的訓練方式,推薦系統(tǒng)模塊的監(jiān)督信號可以反饋到知識圖譜特征學習中,這對于提高最終的性能是有利的。但是需要注意的是,兩個模塊在最終的目標函數(shù)中結(jié)合方式以及權(quán)重的分配都需要精細的實驗才能確定。聯(lián)合學習潛在的問題是訓練開銷較大,特別是一些使用到圖算法的模型。

交替學習

Multi-task Learning for KG enhanced Recommendation (MKR)

推薦系統(tǒng)和知識圖譜特征學習的交替學習類似于多任務(wù)學習的框架。該方法的出發(fā)點是推薦系統(tǒng)中的物品和知識圖譜中的實體存在重合,因此兩個任務(wù)之間存在相關(guān)性。將推薦系統(tǒng)和知識圖譜特征學習視為兩個分離但是相關(guān)的任務(wù),采用多任務(wù)學習的框架,可以有如下優(yōu)勢:

兩者的可用信息可以互補;

知識圖譜特征學習任務(wù)可以幫助推薦系統(tǒng)擺脫局部極小值;

知識圖譜特征學習任務(wù)可以防止推薦系統(tǒng)過擬合;

知識圖譜特征學習任務(wù)可以提高推薦系統(tǒng)的泛化能力。

MKR[4]的模型框架如下,其中左側(cè)是推薦任務(wù),右側(cè)是知識圖譜特征學習任務(wù)。推薦部分使用用戶和物品的特征表示作為輸入,預(yù)測的點擊概率作為輸出。知識圖譜特征學習部分使用一個三元組的頭結(jié)點和關(guān)系表示作為輸入,預(yù)測的尾節(jié)點表示作為輸出。

由于推薦系統(tǒng)中的物品和知識圖譜中的實體存在重合,所以兩個任務(wù)并非相互獨立。我們在兩個任務(wù)中設(shè)計了交叉特征共享單元(cross-feature-sharing units)作為兩者的連接紐帶。

交叉特征共享單元是一個可以讓兩個任務(wù)交換信息的模塊。由于物品向量和實體向量實際上是對同一個對象的兩種描述,他們之間的信息交叉共享可以讓兩者都獲得來自對方的額外信息,從而彌補了自身的信息稀疏性的不足。

MKR的整體損失函數(shù)如下:

在實際操作中,我們采用交替訓練的方式:固定推薦系統(tǒng)模塊的參數(shù),訓練知識圖譜特征學習模塊的參數(shù);然后固定知識圖譜特征學習模塊的參數(shù),訓練推薦系統(tǒng)模塊的參數(shù):

MKR在電影、圖書和新聞推薦上也取得了不錯的效果,其F1@K指標在絕大多數(shù)情況下都超過了baseline方法:

交替學習是一種較為創(chuàng)新和前沿的思路,其中如何設(shè)計兩個相關(guān)的任務(wù)以及兩個任務(wù)如何關(guān)聯(lián)起來都是值得研究的方向。從實際運用和時間開銷上來說,交替學習是介于依次學習和聯(lián)合學習中間的:訓練好的知識圖譜特征學習模塊可以在下一次訓練的時候繼續(xù)使用(不像聯(lián)合學習需要從零開始),但是依然要參與到訓練過程中來(不像依次學習中可以直接使用實體向量)。

知識圖譜作為推薦系統(tǒng)的一種新興的輔助信息,近年來得到了研究人員的廣泛關(guān)注。未來,知識圖譜和時序模型的結(jié)合、知識圖譜和基于強化學習的推薦系統(tǒng)的結(jié)合、以及知識圖譜和其它輔助信息在推薦系統(tǒng)中的結(jié)合等相關(guān)問題仍然值得更多的研究。歡迎感興趣的同學通過留言與我們互動溝通。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4782

    瀏覽量

    101229
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4631

    瀏覽量

    93422
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    7746

原文標題:如何將知識圖譜特征學習應(yīng)用到推薦系統(tǒng)?

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    NLPIR大數(shù)據(jù)知識圖譜完美展現(xiàn)文本數(shù)據(jù)內(nèi)容

    推理能力,推理出暗含的知識,獲取更多知識與結(jié)論,豐富知識圖譜。  1、演繹歸納推理(一般—特殊):KGB能夠完成由一般特征到特殊個案的演繹知識
    發(fā)表于 07-01 11:40

    知識圖譜相關(guān)應(yīng)用

    智慧風控的背后,是知識圖譜的深度應(yīng)用
    發(fā)表于 08-22 14:40

    KGB知識圖譜基于傳統(tǒng)知識工程的突破分析

    、客體、時間、地點、金額、條款等),準確率高達90%,實現(xiàn)知識的快速生成。3. 知識關(guān)聯(lián):KGB知識圖譜引擎深入挖掘知識關(guān)聯(lián),
    發(fā)表于 10-22 15:25

    KGB知識圖譜技術(shù)能夠解決哪些行業(yè)痛點?

    和小知識點,也細化知識圖譜的實體和關(guān)系之間的級別,行業(yè)領(lǐng)域的知識圖譜
    發(fā)表于 10-30 15:34

    知識圖譜的三種特性評析

    、客體、時間、地點、金額、條款等),準確率高達90%,實現(xiàn)知識的快速生成。3、知識關(guān)聯(lián):KGB知識圖譜引擎深入挖掘知識關(guān)聯(lián),
    發(fā)表于 12-13 13:57

    KGB知識圖譜幫助金融機構(gòu)進行風險預(yù)判

    、時間、地點、金額、條款等),準確率高達90%,實現(xiàn)知識的快速生成。3.知識關(guān)聯(lián):KGB知識圖譜引擎深入挖掘知識關(guān)聯(lián),
    發(fā)表于 06-18 23:07

    KGB知識圖譜通過智能搜索提升金融行業(yè)分析能力

    知識圖譜作為知識的一種形式,已經(jīng)在語義搜索、智能問答、數(shù)據(jù)分析、自然語言理解、視覺理解、物聯(lián)網(wǎng)設(shè)備互聯(lián)等多個方面發(fā)揮出越來越大的價值。尤其在金融領(lǐng)域,KGB知識圖譜能夠實現(xiàn)數(shù)據(jù)可視化,
    發(fā)表于 06-22 21:23

    各種知識圖譜精化方法,為國內(nèi)同行介紹本領(lǐng)域的最新研究成果

    知識圖譜構(gòu)建是使用各種技術(shù)從無有構(gòu)造知識圖譜,而知識圖譜精化是使用各種技術(shù)對
    的頭像 發(fā)表于 09-23 09:46 ?6928次閱讀
    <b class='flag-5'>各種</b><b class='flag-5'>知識圖譜</b>精化<b class='flag-5'>方法</b>,為國內(nèi)同行介紹本領(lǐng)域的最新研究成果

    知識圖譜劃分的相關(guān)算法及研究

    知識圖譜是人工智能的重要基石,因其包含豐富的圖結(jié)構(gòu)和屬性信息而受到廣泛關(guān)注。知識圖譜可以精確語義描述現(xiàn)實世界中的各種實體及其聯(lián)系,其中頂點表示實體,邊表示實體間的聯(lián)系。知識圖譜劃分是大
    發(fā)表于 03-18 10:10 ?14次下載
    <b class='flag-5'>知識圖譜</b>劃分的相關(guān)算法及研究

    深度學習—基于軍事知識圖譜的作戰(zhàn)預(yù)案語義匹配方法研究

    基于軍事知識圖譜的作戰(zhàn)預(yù)案語義匹配方法研究 人工智能技術(shù)與咨詢 前天 本文來自《指揮與控制學報》?,作者梁汝鵬等 摘 要?提出了一種智能化的預(yù)案語義匹配方法,基于軍事知識圖譜,建立
    發(fā)表于 11-11 11:08 ?1799次閱讀
    深度<b class='flag-5'>學習</b>—基于軍事<b class='flag-5'>知識圖譜</b>的作戰(zhàn)預(yù)案語義匹配<b class='flag-5'>方法</b>研究

    規(guī)則引導的知識圖譜聯(lián)合嵌入方法

    規(guī)則引導的知識圖譜聯(lián)合嵌入方法 人工智能技術(shù)與咨詢? 本文來自《計算機研究與發(fā)展》?,作者姚思雨等 摘 要?近年來,大量研究工作致力于知識圖譜的嵌入學習,旨在
    發(fā)表于 12-28 10:42 ?781次閱讀

    基于位置的知識圖譜鏈接預(yù)測

    了一種基于位置的知識圖譜鏈接預(yù)測方法。該方法首先通過分析實體和關(guān)系的語義特征對關(guān)系進行分類,然后提出了一種基于位置的實體和關(guān)系位置特征和規(guī)則
    發(fā)表于 12-31 10:07 ?542次閱讀
    基于位置的<b class='flag-5'>知識圖譜</b>鏈接預(yù)測

    知識圖譜Knowledge Graph構(gòu)建與應(yīng)用

    一、知識圖譜概論 ? ? ? ? 1.1知識圖譜的起源和歷史 1.2知識圖譜的發(fā)展史——從框架、本體論、語義網(wǎng)、鏈接數(shù)據(jù)知識圖譜 1.3
    發(fā)表于 09-17 10:12 ?696次閱讀

    知識圖譜知識圖譜的典型應(yīng)用

    作者:?cooldream2009? 我們構(gòu)建知識圖譜的目的,在于利用知識圖譜來做一些事情。有效利用知識圖譜,就是要考慮知識圖譜的具備的能力,知識圖
    的頭像 發(fā)表于 10-18 09:26 ?2139次閱讀
    <b class='flag-5'>知識圖譜</b>:<b class='flag-5'>知識圖譜</b>的典型應(yīng)用

    知識圖譜賦能企業(yè)數(shù)字化轉(zhuǎn)型

    知識圖譜知識圖譜賦能企業(yè)數(shù)字化轉(zhuǎn)型 相互關(guān)聯(lián)是大數(shù)據(jù)時代的鮮明特征。激增且日益復雜的海量數(shù)據(jù)正通過各種方式對企業(yè)發(fā)展產(chǎn)生重要影響。如何正確理解和解讀數(shù)據(jù),發(fā)掘其內(nèi)在價值,從而推動企業(yè)
    的頭像 發(fā)表于 10-22 09:46 ?1018次閱讀
    主站蜘蛛池模板: 国产成人教育视频在线观看 | 大桥未久加勒比女热大陆在线 | 日本肥妇 | 久久综合欧美成人 | 黄色字幕网| 天天综合网在线 | 国产激烈床戏无遮挡观看 | 手机亚洲第一页 | rrr523亚洲国产片 | 午夜影剧院 | 哺乳期xxxx视频 | 又黄又免费的网站 | 欧美一区二区三区不卡片 | 色婷婷成人网 | aa级毛片| 日本一级成人毛片免费观看 | 日本在线观看成人小视频 | 手机看片久久 | 资源在线www天堂 | 1024手机看片国产旧版你懂的 | 777奇米四色米奇影院在线播放 | 刺激第一页720lu久久 | 日本zzzwww大片免费 | 免费看日本大片免费 | 日本高清不卡视频 | 精品国产一区二区三区国产馆 | 综合天堂 | 国产一区二卡三区四区 | 欧美另类网 | 国产成人毛片视频不卡在线 | 天堂网址| 一级视频在线免费观看 | 在线免费看黄的网站 | 久久综合狠狠综合狠狠 | 亚洲三级网 | 精品国产免费久久久久久婷婷 | 欧美爽爽网 | 亚洲伊人久久大香线蕉影院 | 日本一本视频 | 美女被免费视频网站九色 | 视频在线观看网站免费 |