在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從ID-based到LLM-based:可遷移推薦系統發展

智能感知與物聯網技術研究所 ? 來源:未知 ? 2023-11-12 22:00 ? 次閱讀

wKgaomVQ25GAOc1GAAQ6oOGY_2g553.png

Paper List:https://github.com/westlake-repl/Recommendation-Systems-without-Explicit-ID-Features-A-Literature-Review

wKgaomVQ25KAbYLtAAAl6LOgh3c145.png可遷移推薦系統發展歷程

推薦系統的核心目標是通過建模用戶的歷史行為預測最有可能交互的下一個目標。而這一目標在用戶交互記錄較少的情況下尤為困難,即長期困擾推薦系統領域發展的冷啟動問題。在這些新用戶很少并且其交互序列有限的新推薦系統場景中,前期的模型訓練往往缺乏足夠的樣本數據。對有限訓練數據的建模也必然無法獲得用戶滿意的推薦結果,使得平臺成長受到很大阻礙。

遷移學習是學術界和工業界為了解決這一問題所一直關注的解決方案。如果可以向新場景中引入預先訓練到的知識幫助建模用戶序列或加速建模速度,這將極大緩解下游新場景中冷啟動問題帶來的巨大成本。

為此,對可遷移推薦系統的研究幾乎貫穿了推薦系統領域發展的每一個階段。從基于物品 ID 和用戶 ID 的矩陣分解時代,可遷移推薦系統必須基于上下游場景的數據覆蓋實現基于 ID 的推薦系統遷移學習。

到近幾年模態理解技術發展迅猛,研究人員逐漸轉向利用純模態信息建模用戶序列,從而實現在上下游場景沒有數據覆蓋的情況下實現可遷移推薦系統。再到當下利用大規模預訓練語言模型(LLM)完成 ‘one-for-all’ 的推薦系統大模型得到大量關注。可遷移推薦系統乃至推薦系統大模型的研究已成為推薦系統領域發展的下一個方向。

wKgaomVQ25KAIg_TAAAuhh9-KLM251.png

基于ID的可遷移推薦系統

第一階段是矩陣分解時代,使用 ID embedding 來建模物品的協同過濾算法是推薦系統的主流范式,并在之后的 15 年間主導了整個推薦系統社區。經典架構包括:雙塔架構、CTR 模型、會話和序列推薦、Graph 網絡。他們無不采用 ID embedding 來對物品進行建模,整個推薦系統現有的 SOTA 體系也幾乎都是采用基于 ID 特征的建模手段。

這一階段,可遷移推薦系統自然依靠 ID 實現,而且必須在上下游場景之間有數據重疊,即要求不同數據集之間存在共同用戶或者物品,例如大公司里存在多個業務場景, 通過老的業務引流新的業務。這一階段的早期工作有 PeterRec [1](SIGIR2020)、Conure [2](SIGIR2021)和 CLUE [3] (ICDM2021)等。

wKgaomVQ25KARutKAAQs6Fm8hIk392.png

PeterRec 是推薦系統領域首篇論文明確提出基于自監督預訓練(自回歸與 Mask 語言模型)的用戶表征具備通用性,并清晰地呈現出該預訓練的通用表征可用于跨域推薦和用戶畫像預測,顯著提升性能,其中,采用用戶畫像預測評估用戶表征的通用性被后續相關論文廣泛沿用。

同時,PeterRec 提出,通用型用戶模型在下游任務遷移過程,應該做到參數有效共享(公司往往有上百種用戶畫像要預測,數十個業務推薦場景),并引入基于 Adapter 技術,也是推薦系統首次采用 Adapter,通過微調模型補丁實現不同任務有效遷移學習。另外,PeterRec 還發布了一套大規模的跨域推薦系統數據集。

wKgaomVQ25KASmR-AAHZd-i50qU618.png

Conure 是推薦系統領域首個用戶通用表征的終生學習(lifelong learning)模型,首次提出一個模型連續學習和同時服務多個不同的下游任務。作者提出的‘一人一世界’概念啟發了當下推薦系統 one4all 模型的研究。

wKgaomVQ25KAPEA0AAEtmV1G9yU674.png

CLUE 認為 PeterRec 與 Conure 算法在學習用戶表征時,采用自回歸或者 mask 機制都是基于物品粒度的預測,而最優的用戶表征顯然應該是對完整的用戶序列進行建模和訓練,因此結合對比學習,獲得了更優的結果。

wKgaomVQ25KABf0lAAV_QF5xruw256.png

這期間有一些同時期或者 future work,包括阿里的 Star 模型(One Model to Serve All: Star Topology Adaptive Recommender for Multi-Domain CTR Prediction),以及 ShopperBERT 模型 (One4all User Representation for Recommender Systems in E-commerce)。

wKgaomVQ25KAP925AAAtJ0fTuoM601.png

基于模態信息的可遷移推薦系統

以上工作基于共享(用戶或者物品)ID 方式實現領域之間的遷移性和跨域推薦,比較適用于公司內部不同業務之間, 而現實中不同推薦系統很難共享用戶與 item 的 ID 信息,使得跨平臺推薦這一類研究具有明顯的局限性。

相比之下,深度學習的其他社區,如自然語言處理(NLP)與計算機視覺(CV)領域近幾年已經涌現出一系列有影響力的通用型大模型,又稱基礎模型(foundation model),如 BERT、GPT、Vision Transformer 等。相比推薦系統 ID 特征,NLP 與 CV 任務基于多模態文本與圖像像素特征,可以較好的實現模型在不同任務之間的復用與遷移。

替換 ID 特征、基于模態內容實現不同系統與平臺之間的遷移是該階段的主流方向。這一階段的代表性工作有 TransRec [4]、MoRec [5](SIGIR2023)、AdapterRec [6](WSDM2024)、NineRec [7] 等。另外,同時期的工作還有人大趙鑫老師團隊 UnisRec 以及張永峰老師團隊的 P5。

wKgaomVQ25OAHQPrAAHAOmMheS0048.png

TransRec 是首個研究混合模態遷移的推薦系統模型,也是首次考慮圖像像素的遷移學習模型。TransRec 采用端到端訓練方式,而不是直接抽取離線 item 多模態表征。

與基于 ID 的序列推薦模型比較,經過 finetune 的 TransRec 可以有效提升推薦結果。TransRec 證實了大規模數據上利用混合模態信息預訓練可以有效學習用戶和物品的關系,并且可以遷移到下游推薦任務,實現通用推薦,論文還研究了 scaling effect 效果,并會發布多套多模態數據集。與 TransRec 同時期的工作是人大趙鑫老師團隊 UnisRec,UnisRec 主要聚焦 text 模態。

wKgaomVQ25OAbN-7AAH-vX3gs8c675.png

wKgaomVQ25OAeE8EAAGWXQzFbZg333.png

MoRec 首次系統性回答了使用最先進的模態編碼器表征物品(MoRec)是否能取代經典的 itemID embedding 范式(DRec)這一問題。論文基于 MoRec 與 IDRec 的公平比較展開:如果在冷熱場景下 MoRec 都能打敗 IDRec,那么推薦系統將有望迎來經典范式的變革。這一觀點來自于 MoRec 完全基于物品的模態信息,此類內容信息天生具有遷移能力,論文通過扎實的實驗系統性證明了 MoRec 有潛力實現通用大模型。

結論 1:對于時序推薦架構 SASRec,在常規場景(既有熱 item 也有一部分冷 item),MoRec 在文本上明顯優于 IDRec,而在圖片上則和 IDRec 效果相當。在冷啟動場景,MoRec 大幅優于 IDRec,在熱門商品推薦場景,MoRec 和 IDRec 效果相當。

結論 2:MoRec 為推薦系統和 NLP、CV 等多模態社區建立了聯系,而且一般來說,可以很好的繼承 NLP 和 CV 領域的最新進展。

結論 3:工業界流行的 Two-stage 離線特征提取推薦方式會導致 MoRec 性能顯著下降(特別是對于視覺推薦),這在實踐中不應該被忽視。同時,盡管多模態領域的預訓練模型在近年來取得了革命性的成功,但其表征還沒有做到通用性和泛化性,至少對于推薦系統是這樣(MoRec 論文也被 Google DeepMind 團隊邀請給了一個 talk,Google researcher 對該工作評價非常高)。受此啟發,近期已經出現很多相關工作。

wKgaomVQ25OAcNZ0AAK01JDUWhM053.png

AdapterRec 首次系統性討論了基于模態信息的高效遷移方法。論文評估了基于適配器(Adapter)的模型補丁。與以往工作在下游遷移時微調全部參數不同,AdapterRec 在遷移時在模型網絡中插入并僅微調適配器網絡。論文在大規模文本、圖片模態數據上進行了豐富的驗證實驗。

結果表明,基于文本、圖片模態的適配器都可以實現良好的遷移效果。基于文本模態時,適配器技術可以在微調極少量參數的計算成本下實現與微調全部參數相近的遷移結果。AdapterRec 證實了基于適配器技術的高效遷移方法是實現通用推薦系統大模型的重要環節。

wKgaomVQ25OAfBjLAAEZgTc3Z3M291.png

NineRec 提出了迄今為止推薦系統領域規模最大最多樣的多模態遷移學習數據集。論文延續 MoRec 與 IDRec 公平比較的原則,系統性評估了 MoRec 的遷移能力并給出詳見的指導建議與評估平臺。NineRec 提供了一套大規模預訓練數據集和九個下游場景數據集,其中僅預訓練數據集就包含 200 萬用戶、14 萬物品以及近 2500 萬條交互記錄信息。

論文設計大規模實驗評估了多種經典推薦架構(SASRec,BERT4Rec,NextItNet,GRU4Rec)與物品編碼器(BERT,Roberta,OPT,ResNet,Swin Transformer)的遷移表現,并驗證了端到端遷移(End-to-End)與兩階段遷移(Two-stage)對于遷移推薦的影響。實驗結果表明,利用端到端訓練技術可以極大程度上激發模態信息的潛能,僅使用經典框架如 SASRec 即可超越近期同類型可遷移推薦模型。

論文還驗證了基于純模態信息的 zero-shot 遷移能力。NineRec 為基于模態的推薦系統遷移學習和推薦大模型發展提供了全新的平臺和基準。NineRec(只有文本和圖片模態)之后,團隊聯合發布了 MicroLens [11] 數據集,是當前最大的短視頻推薦數據集包含原始短視頻,是其他相關數據集規模的數千倍,用戶量達到 3000 萬,點擊行為達到 10 億,可以用于訓練推薦系統大模型。NineRec 與 MicroLens 算力和數據集收集費用都超過百萬人民幣。

wKgaomVQ25OAG5aeAAAr2pbNr48565.png基于LLM的可遷移推薦系統

當下人工智能領域進入大模型時代,越來越多的通用大模型在各個領域被提出,極大的促進了 AI 社區的發展。然而大模型技術在推薦系統領域應用還處于早期階段。諸多問題并沒有得到很好的回答,如利用大語言模型理解推薦任務是否能大幅超越原有的 ID 范式?是否越大規模參數的大模型網絡可以帶來通用推薦表征?回答這些問題是推動推薦系統社區進入大模型時代的敲門磚,受到了越來越多科研團隊的關注。

這里主要介紹 P5 [8] 和 GPT4Rec [9],P5 是采用 LM 作為推薦 backbone,而 GPT4Rec 則是極限地評估 1750 億的 item encoder 表能能力, 后續工作也非常多(例如基于 prompt,基于chain of thought,基于 ChatGPT 等),例如同時期的工作還有 Google 的 LLM for rating prediction [10]與 GPT4Rec 類似,都是采用遷移模型評估性能極限,一個專注 top-n item 推薦,一個專注 rating prediction。

P5 提出了一種基于文本模態的多任務大模型框架,將多種經典推薦任務轉化為統一的自然語言理解任務,包括序列推薦、評分預測、推薦理由、摘要以及直接推薦等多種任務。模型設計上,P5 通過基于提示(prompt)的自然語言格式來構建任務,將這些相關的推薦任務統一為序列到序列(seq-to-seq)框架中進行學習。數據方面,P5 將各種可用數據,例如用戶信息、物品元數據、用戶評論以及用戶與物品的互動數據轉化為自然語言序列。豐富的訓練數據產生了滿足個性化推薦需求的語義信息。

wKgaomVQ25SALevaAAKvD5g62vU755.png

GPT4Rec 首次探索了使用百億規模大語言模型作為物品編碼器。論文提出并回答了幾個關鍵性的問題:1)基于文本的協同過濾推薦算法(TCF)的性能隨著物品編碼器參數量不斷增加表現如何?是否在千億規模能達到上限?2)超大參數的 LLM,如 175B 參數 GPT-3,是否能產生通用的 item 表征?3)基于公平比較,裝配了 175B 參數量的 LLM 的推薦系統算法能否打敗基于 ID 的經典算法;4)基于 LLM 的 TCF 算法距離推薦系統通用大模型還有多遠?

實驗結果表明:

1. 175B 的參數 LM 可能還沒有達到其性能上限,通過觀察到 LLM 的參數量從 13B 到 175B 時,TCF 模型的性能還沒有收斂。這一現象表明將來使用更多參數的 LLM 用作文本編碼器是有帶來更高的推薦準確性的潛力的;

2. 即使是由極其龐大的 LM(如 GPT-3)學習到的物品表示,也未必能形成一個通用的表征。在相應的推薦系統數據集微調仍然對于獲得 SOTA 仍然是必要的,至少對文本推薦任務來說是如此;

3. 即使采用 175B 和微調的 66B 的語言模型,當使用 DSSM 作為推薦骨架時,TCF 仍然很大程度的劣于 IDRec,但是對于序列推薦模型,LLM 即便采用凍住的表征,也基本可以跟 IDRec 相媲美;

4. 雖然裝配了 175B 參數量 LLM 的 TCF 模型的表現優于隨機采樣的 item 的推薦,甚至達到了 6-40 倍的提升。但與在推薦數據上重新訓練的 TCF 模型相比,它們仍然有巨大的差距。另外,論文發現:

5. ChatGPT 在典型的推薦系統場景與 TCF 相比表現存在較大的差距,文章猜測需要更加精細的 prompt,ChatGPT 才有可能用于某些真實推薦場景。

wKgaomVQ25SAeUpDAAIjsnzcfoA933.png

wKgaomVQ25SAdzCQAAAtTL4L6hI436.png總結

目前推薦系統社區內,基于模態內容的大模型研究仍處于起步階段:

1. 基于傳統的 ID 的推薦算法難以解決模態場景問題;

2. 已有的基于模態內容的跨域推薦系統文獻通用性較低;

3. 非端到端的聯合訓練提取的特征可能存在粒度尺度不匹配等問題,通常只能生成次優的推薦水平;

4. 社區缺少包含模態內容的可用于遷移學習研究的大規模公開數據集,缺少基準和排行榜(leaderboard);

5. 已有文獻中的推薦系統大模型參數量和訓練數據太小(相對于 NLP 與 CV 領域),缺少開源的推薦系統大模型預訓練參數。

wKgaomVQ25SALi3nAAAC0jQz1zo800.svg

參考文獻

wKgaomVQ25SALi3nAAAC0jQz1zo800.svg ?[1] Parameter-efficient transfer from sequential behaviors for user modeling and recommendation (SIGIR2020)

[2] One Person, One Model, One World: Learning Continual User Representation without Forgetting (SIGIR2021)

[3] Learning transferable user representations with sequential behaviors via contrastive pre-training (ICDM2021)

[4] TransRec: Learning Transferable Recommendation from Mixture-of-Modality Feedback. Arxiv2022/06

[5] Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited (SIGIR2023)

[6] Exploring Adapter-based Transfer Learning for Recommender Systems: Empirical Studies and Practical Insights (WSDM2024)

[7] NineRec: A Suite of Transfer Learning Datasets for ModalityBased Recommender Systems. Arxiv2023/09

[8] Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5) (Recsys2022)

[9] Exploring the Upper Limits of Text-Based Collaborative Filtering Using Large Language Models: Discoveries and Insights. Arxiv2023/05

[10] Do LLMs Understand User Preferences? Evaluating LLMs On User Rating Prediction. Arxiv2023/05

[11] A Content-Driven Micro-Video Recommendation Dataset at Scale. Arxiv2023/09

參考技術貼:

1)https://zhuanlan.zhihu.com/p/624557649 機器學習心得(八):推薦系統是不是即將迎來預訓練時代?

2)https://zhuanlan.zhihu.com/p/633839409 SIGIR2023 | ID vs 模態: 推薦系統ID范式有望被顛覆?

3)https://zhuanlan.zhihu.com/p/642797247 推薦系統范式之爭,LLM vs. ID?

4)https://zhuanlan.zhihu.com/p/437671278 推薦系統通用用戶表征預訓練研究進展

5)https://zhuanlan.zhihu.com/p/661836095 推薦系統何去何從(Google DeepMind受邀報告)

6)https://zhuanlan.zhihu.com/p/661954235 推薦系統預訓練大模型范式發展


原文標題:從ID-based到LLM-based:可遷移推薦系統發展

文章出處:【微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 物聯網
    +關注

    關注

    2922

    文章

    45675

    瀏覽量

    385459

原文標題:從ID-based到LLM-based:可遷移推薦系統發展

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發表于 03-05 08:07

    HarmonyOS Next 應用元服務開發-分布式數據對象遷移數據文件資產遷移

    提供了async版本供該場景使用。 當前,wantParams中“sessionId”字段在遷移流程中被系統占用,建議開發者在wantParams中定義其他key值存儲該分布式數據對象生成的id,避免
    發表于 12-24 10:11

    什么是LLMLLM在自然語言處理中的應用

    隨著人工智能技術的飛速發展,自然語言處理(NLP)領域迎來了革命性的進步。其中,大型語言模型(LLM)的出現,標志著我們對語言理解能力的一次飛躍。LLM通過深度學習和海量數據訓練,使得機器能夠以前
    的頭像 發表于 11-19 15:32 ?3136次閱讀

    INA219遷移到INA232

    電子發燒友網站提供《INA219遷移到INA232.pdf》資料免費下載
    發表于 11-14 14:17 ?0次下載
    <b class='flag-5'>從</b>INA219<b class='flag-5'>遷移</b>到INA232

    LLM技術對人工智能發展的影響

    隨著人工智能技術的飛速發展,大型語言模型(LLM)技術已經成為推動AI領域進步的關鍵力量。LLM技術通過深度學習和自然語言處理技術,使得機器能夠理解和生成自然語言,極大地擴展了人工智能的應用范圍
    的頭像 發表于 11-08 09:28 ?1553次閱讀

    NY8B062F 14 I/O+12-通道ADC 8位EPROM-Based單片機手冊

    電子發燒友網站提供《NY8B062F 14 I/O+12-通道ADC 8位EPROM-Based單片機手冊.pdf》資料免費下載
    發表于 10-28 10:47 ?0次下載

    端InfiniBand網絡解決LLM訓練瓶頸

    的,這需要大量的計算資源和高速數據傳輸網絡。端端InfiniBand(IB)網絡作為高性能計算和AI模型訓練的理想選擇,發揮著重要作用。在本文中,我們將深入探討大型語言模型(LLM)訓練的概念,并探索端端InfiniBand
    的頭像 發表于 10-23 11:26 ?946次閱讀
    端<b class='flag-5'>到</b>端InfiniBand網絡解決<b class='flag-5'>LLM</b>訓練瓶頸

    USCI模塊遷移到eUSCI模塊

    電子發燒友網站提供《USCI模塊遷移到eUSCI模塊.pdf》資料免費下載
    發表于 10-18 10:39 ?0次下載
    <b class='flag-5'>從</b>USCI模塊<b class='flag-5'>遷移</b>到eUSCI模塊

    MSP430? MCU MSPM0 MCU 的遷移指南

    電子發燒友網站提供《 MSP430? MCU MSPM0 MCU 的遷移指南.pdf》資料免費下載
    發表于 09-09 14:55 ?2次下載
    <b class='flag-5'>從</b> MSP430? MCU <b class='flag-5'>到</b> MSPM0 MCU 的<b class='flag-5'>遷移</b>指南

    STM32基于Arm的MSPM0的遷移指南

    電子發燒友網站提供《STM32基于Arm的MSPM0的遷移指南.pdf》資料免費下載
    發表于 09-07 11:31 ?0次下載
    <b class='flag-5'>從</b>STM32<b class='flag-5'>到</b>基于Arm的MSPM0的<b class='flag-5'>遷移</b>指南

    遷移到基于Arm STM32的MSPMO指南

    電子發燒友網站提供《遷移到基于Arm STM32的MSPMO指南.pdf》資料免費下載
    發表于 09-07 11:17 ?0次下載
    <b class='flag-5'>從</b><b class='flag-5'>遷移</b>到基于Arm STM32的MSPMO指南

    將軟件8位(字節)尋址CPU遷移至C28x CPU

    電子發燒友網站提供《將軟件8位(字節)尋址CPU遷移至C28x CPU.pdf》資料免費下載
    發表于 09-06 10:42 ?0次下載
    將軟件<b class='flag-5'>從</b>8位(字節)<b class='flag-5'>可</b>尋址CPU<b class='flag-5'>遷移</b>至C28x CPU

    Renesas RL78基于Arm的MSPM0的遷移指南

    電子發燒友網站提供《Renesas RL78基于Arm的MSPM0的遷移指南.pdf》資料免費下載
    發表于 08-23 09:28 ?0次下載
    <b class='flag-5'>從</b>Renesas RL78<b class='flag-5'>到</b>基于Arm的MSPM0的<b class='flag-5'>遷移</b>指南

    什么是LLMLLM的工作原理和結構

    隨著人工智能技術的飛速發展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領域的研究熱點。LLM以其強大的文本生成、理解和推理能力,在文本
    的頭像 發表于 07-02 11:45 ?1.2w次閱讀

    大語言模型(LLM)快速理解

    自2022年,ChatGPT發布之后,大語言模型(LargeLanguageModel),簡稱LLM掀起了一波狂潮。作為學習理解LLM的開始,先來整體理解一下大語言模型。一、發展歷史大語言模型的
    的頭像 發表于 06-04 08:27 ?1551次閱讀
    大語言模型(<b class='flag-5'>LLM</b>)快速理解
    主站蜘蛛池模板: 久久永久视频 | 最新版天堂资源中文官网 | 四虎影院在线观看免费 | 婷婷六月激情 | 一级三级黄色片 | 久久精品综合视频 | free性乌克兰高清videos | 奇米色影院 | 俄罗斯久久 | 国产在线观看午夜不卡 | 欧美性受一区二区三区 | 天堂一区二区三区在线观看 | 久久国产精品自在自线 | 亚洲一区中文字幕在线观看 | 电影一区二区三区 | 欧洲精品不卡1卡2卡三卡四卡 | 性欧美69| 日本三级香港三级三级人!妇久 | 亚洲日本一区二区 | 久久久噜噜噜www成人网 | 欧美色爱综合 | 日本免费色 | 好紧好爽的午夜寂寞视频 | 免费在线不卡视频 | 能看毛片的网址 | www三级免费| 日本在线不卡视频 | 2021天天干 | 四虎最新免费观看网址 | 日本一二线不卡在线观看 | 日本大片成人免费播放 | tom影院亚洲国产日本一区 | 天堂福利视频在线观看 | 日日摸夜夜爽夜夜爽出水 | 综合五月天堂 | 日本人xxxxxxxx6969 | 五月婷婷综合在线 | 老司机亚洲精品影院在线观看 | 成人网18免费下 | 午夜影院啊啊啊 | 欧美成人天天综合天天在线 |