在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

當LLM遇到Database:阿里達摩院聯(lián)合HKU推出Text-to-SQL新基準?

AI智勝未來 ? 來源:機器之心 ? 2023-06-08 17:09 ? 次閱讀

在新基準 BIRD 上,ChatGPT 僅能達到 40.08%,相比人類 92.96% 還有很大差距。

背景

大模型(LLM)為通用人工智能(AGI)的發(fā)展提供了新的方向,其通過海量的公開數(shù)據(jù),如互聯(lián)網(wǎng)、書籍等語料進行大規(guī)模自監(jiān)督訓練,獲得了強大的語言理解、語言生成、推理等能力。然而,大模型對于私域數(shù)據(jù)的利用仍然面臨一些挑戰(zhàn),私域數(shù)據(jù)是指由特定企業(yè)或個人所擁有的數(shù)據(jù),通常包含了領域特定的知識,將大模型與私域知識進行結(jié)合,將會發(fā)揮巨大價值。

私域知識從數(shù)據(jù)形態(tài)上又可以分為非結(jié)構(gòu)化與結(jié)構(gòu)化數(shù)據(jù)。對于非結(jié)構(gòu)化數(shù)據(jù),例如文檔,通常都通過檢索的方式進行增強,可以利用 langchain 等工具可以快速實現(xiàn)問答系統(tǒng)。而結(jié)構(gòu)化數(shù)據(jù),如數(shù)據(jù)庫(DB),則需要大模型與數(shù)據(jù)庫進行交互,查詢和分析來獲取有用的信息。圍繞大模型與數(shù)據(jù)庫,近期也衍生出一系列的產(chǎn)品與應用,譬如利用 LLM 打造智能數(shù)據(jù)庫、執(zhí)行 BI 分析、完成自動表格構(gòu)建等。其中,text-to-SQL 技術,即以自然語言的方式與數(shù)據(jù)庫進行交互,一直以來都是一個備受期待的方向。

在學術界,過去的 text-to-SQL 基準僅關注小規(guī)模數(shù)據(jù)庫,最先進的 LLM 已經(jīng)可以達到 85.3% 的執(zhí)行準確率,但這是否意味著 LLM 已經(jīng)可以作為數(shù)據(jù)庫的自然語言接口

新一代數(shù)據(jù)集

最近,阿里巴巴聯(lián)合香港大學等機構(gòu)推出了面向大規(guī)模真實數(shù)據(jù)庫的全新基準 BIRD (Can LLM Already Serve as A Database Interface? A BIg Bench for Large-Scale Database Grounded Text-to-SQLs), 包含 95 個大規(guī)模數(shù)據(jù)庫及高質(zhì)量的 Text-SQL pair,數(shù)據(jù)存儲量高達 33.4 GB。之前最優(yōu)的模型在 BIRD 上評估僅達到 40.08%,與人類 92.96% 的結(jié)果還有很大差距,這證明挑戰(zhàn)仍然存在。除了評估 SQL 正確性外,作者還增加了 SQL 執(zhí)行效率的評估,期待模型不僅可以寫正確的 SQL,還能夠?qū)懗龈咝У?SQL。

567bdfb4-05db-11ee-962d-dac502259ad0.png

論文:https://arxiv.org/abs/2305.03111

主頁:https://bird-bench.github.io

代碼:https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/bird

568f9482-05db-11ee-962d-dac502259ad0.png

目前,BIRD 的數(shù)據(jù)、代碼、榜單都已經(jīng)開源,在全球的下載量已超10000。BIRD在推出之始,就引發(fā)了 Twitter 上的廣泛關注與討論。

569c81c4-05db-11ee-962d-dac502259ad0.png

56aadfb2-05db-11ee-962d-dac502259ad0.png

海外用戶的評論也非常精彩:

56c4c094-05db-11ee-962d-dac502259ad0.png

不容錯過的 LLM 項目

56d19166-05db-11ee-962d-dac502259ad0.png

非常有用的檢查點,提升的溫床

56dbc118-05db-11ee-962d-dac502259ad0.png

AI 可以幫助你,但還不能取代你

56e8ef00-05db-11ee-962d-dac502259ad0.png

我的工作暫時是安全的...

56523204-05db-11ee-962d-dac502259ad0.jpg

方法概述

565e5dae-05db-11ee-962d-dac502259ad0.jpg???

新的挑戰(zhàn)

該研究主要面向真實數(shù)據(jù)庫的 Text-to-SQL 評估,過去流行的測試基準,比如 Spider 和 WikiSQL,僅關注具有少量數(shù)據(jù)庫內(nèi)容的數(shù)據(jù)庫 schema,導致學術研究與實際應用之間存在鴻溝。BIRD 重點關注海量且真實的數(shù)據(jù)庫內(nèi)容、自然語言問題與數(shù)據(jù)庫內(nèi)容之間的外部知識推理以及在處理大型數(shù)據(jù)庫時 SQL 的效率等新三個挑戰(zhàn)。

570850c0-05db-11ee-962d-dac502259ad0.png

首先,數(shù)據(jù)庫包含海量且嘈雜數(shù)據(jù)的值。在左側(cè)示例中,平均工資的計算需要通過將數(shù)據(jù)庫中的字符串(String)轉(zhuǎn)化為浮點值 (Float) 之后再進行聚合計算(Aggregation);

其次,外部知識推斷是很必要的,在中間示例中,為了能準確地為用戶返回答案,模型必須先知道有貸款資格的賬戶類型一定是 “擁有者”(“OWNER”),這代表巨大的數(shù)據(jù)庫內(nèi)容背后隱藏的奧秘有時需要外部知識和推理來揭示;

最后,需要考慮查詢執(zhí)行效率。在右側(cè)示例中,采用更高效的 SQL 查詢可以顯著提高速度,這對于工業(yè)界來講具有很大價值,因為用戶不僅期待寫出正確的 SQL,還期待 SQL 執(zhí)行的高效,尤其是在大型數(shù)據(jù)庫的情況下;

數(shù)據(jù)標注

BIRD 在標注的過程中解耦了問題生成和 SQL 標注。同時加入專家來撰寫數(shù)據(jù)庫描述文件,以此幫助問題和 SQL 標注人員更好的理解數(shù)據(jù)庫。

57132e96-05db-11ee-962d-dac502259ad0.png

1. 數(shù)據(jù)庫采集:作者從開源數(shù)據(jù)平臺(如 Kaggle 和 CTU Prague Relational Learning Repository)收集并處理了 80 個數(shù)據(jù)庫。通過收集真實表格數(shù)據(jù)、構(gòu)建 ER 圖以及設置數(shù)據(jù)庫約束等手動創(chuàng)建了 15 個數(shù)據(jù)庫作為黑盒測試,來避免當前數(shù)據(jù)庫被當前的大模型學習過。BIRD 的數(shù)據(jù)庫包含了多個領域的模式和值, 37 個領域,涵蓋區(qū)塊鏈、體育、醫(yī)療、游戲等。

2. 問題收集:首先作者雇傭?qū)<蚁葹閿?shù)據(jù)庫撰寫描述文件,該描述文件包括完整的表明列名、數(shù)據(jù)庫值的描述,以及理解值所用到的外部知識等。然后招募了 11 個來自美國,英國,加拿大,新加坡等國家的 native speaker 為 BIRD 產(chǎn)生問題。每一位 speaker 都至少具備本科及以上的學歷。

3.SQL 生成:面向全球招募了由數(shù)據(jù)工程師和數(shù)據(jù)庫課程學生組成的標注團隊為 BIRD 生成 SQL。在給定數(shù)據(jù)庫和參考數(shù)據(jù)庫描述文件的情況下,標注人員需生成 SQL 以正確回答問題。采用雙盲(Double-Blind)標注方法,要求兩位標注人員對同一個問題進行標注。雙盲標注可以最大程度減少單一標注人員所帶來的錯誤。

4. 質(zhì)量檢測:質(zhì)量檢測分為結(jié)果執(zhí)行的有效性和一致性兩部分。有效性不僅要求執(zhí)行的正確性,還要求執(zhí)行結(jié)果不能是空值(NULL)。專家將逐步修改問題條件,直至 SQL 執(zhí)行結(jié)果有效。

5. 難度劃分:text-to-SQL 的難度指標可以為研究人員提供優(yōu)化算法的參考。Text-to-SQL 的難度不僅取決于 SQL 的復雜程度,還與問題難度、額外知識易理解程度以及數(shù)據(jù)庫復雜程度等因素有關。因此作者要求 SQL 標注人員在標注過程中對難易程度進行評分,并將難度分為三類:簡單、適中和具有挑戰(zhàn)性。

數(shù)據(jù)統(tǒng)計

1. 問題類型統(tǒng)計:問題分為兩大類,基礎問題類型(Fundamental Type)和推理問題類型(Reasoning Type)。基礎問題類型包括傳統(tǒng) Text-to-SQL 數(shù)據(jù)集中涵蓋的問題類型,而推理問題類型則包括需要外部知識來理解值的問題:

571f9686-05db-11ee-962d-dac502259ad0.png

2. 數(shù)據(jù)庫分布:作者用 sunburst 圖顯示了數(shù)據(jù)庫 domain 及其數(shù)據(jù)量大小之間的關系。越大的半徑意味著,基于該數(shù)據(jù)庫的 text-SQL 較多,反之亦然。越深的顏色則是指該數(shù)據(jù)庫 size 越大,比如 donor 是該 benchmark 中最大的數(shù)據(jù)庫,所占空間: 4.5GB。

572ef6f8-05db-11ee-962d-dac502259ad0.png

3.SQL 分布:作者通過 SQL 的 token 數(shù)量,關鍵詞數(shù)量,n-gram 類型數(shù)量,JOIN 的數(shù)量等 4 個維度來證明 BIRD 的 SQL 是迄今為止最多樣最復雜的。

573f273a-05db-11ee-962d-dac502259ad0.png

評價指標

1. 執(zhí)行準確率:對比模型預測的 SQL 執(zhí)行結(jié)果與真實標注 SQL 執(zhí)行結(jié)果的差異;

2. 有效效率分數(shù):同時考慮 SQL 的準確性與高效性,對比模型預測的 SQL 執(zhí)行速度與真實標注 SQL 執(zhí)行速度的相對差異,將運行時間視為效率的主要指標。

實驗分析

作者選擇了在之前基準測試中,表現(xiàn)突出的訓練式 T5 模型和大型語言模型(LLM)作為基線模型:Codex(code-davinci-002)和 ChatGPT(gpt-3.5-turbo)。為了更好地理解多步推理是否能激發(fā)大型語言模型在真實數(shù)據(jù)庫環(huán)境下的推理能力,還提供了它們的思考鏈版本(Chain-of-Thought)。并在兩種設置下測試基線模型:一種是完全的 schema 信息輸入,另一種是人類對涉及問題的數(shù)據(jù)庫值的理解,總結(jié)成自然語言描述(knowledge evidence)輔助模型理解數(shù)據(jù)庫。

574b48bc-05db-11ee-962d-dac502259ad0.png

作者給出了一些結(jié)論:

1. 額外知識的增益:增加對數(shù)據(jù)庫值理解的知識(knowledge evidence)有明顯的效果提升,這證明在真實的數(shù)據(jù)庫場景中,僅依賴語義解析能力是不夠的,對數(shù)據(jù)庫值的理解會幫助用戶更準確地找到答案。

2. 思維鏈不一定完全有益:在模型沒有給定數(shù)據(jù)庫值描述和零樣本(zero-shot)情況下,模型自身的 COT 推理可以更準確地生成答案。然而,當給定額外的知識(knowledge evidence)后,讓 LLM 進行 COT,發(fā)現(xiàn)效果并不顯著,甚至會下降。因此在這個場景中, LLM 可能會產(chǎn)生知識沖突。如何解決這種沖突,使模型既能接受外部知識,又能從自身強大的多步推理中受益,將是未來重點的研究方向。

3. 與人類的差距:BIRD 還提供了人類指標,作者以考試的形式測試標注人員在第一次面對測試集的表現(xiàn),并將其作為人類指標的依據(jù)。實驗發(fā)現(xiàn),目前最好的 LLM 距離人類仍有較大的差距,證明挑戰(zhàn)仍然存在。作者執(zhí)行了詳細的錯誤分析,給未來的研究提供了一些潛在的方向。

57633bfc-05db-11ee-962d-dac502259ad0.png

結(jié)論

LLM 在數(shù)據(jù)庫領域的應用將為用戶提供更智能、更便捷的數(shù)據(jù)庫交互體驗。BIRD 的出現(xiàn)將推動自然語言與真實數(shù)據(jù)庫交互的智能化發(fā)展,為面向真實數(shù)據(jù)庫場景的 text-to-SQL 技術提供了進步空間,有助于研究人員開發(fā)更先進、更實用的數(shù)據(jù)庫應用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)庫

    關注

    7

    文章

    3884

    瀏覽量

    65591
  • 自然語言
    +關注

    關注

    1

    文章

    291

    瀏覽量

    13571
  • 阿里達摩院
    +關注

    關注

    0

    文章

    30

    瀏覽量

    3419
  • LLM
    LLM
    +關注

    關注

    1

    文章

    317

    瀏覽量

    645

原文標題:當LLM遇到Database:阿里達摩院聯(lián)合HKU推出Text-to-SQL新基準?

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    普華基礎軟件蒞臨阿里巴巴達摩調(diào)研交流

    近日, 普華基礎軟件股份有限公司(以下簡稱普華基礎軟件)董事、總經(jīng)理劉宏倩一行前往阿里巴巴達摩(杭州)科技有限公司(以下簡稱達摩)調(diào)研交
    的頭像 發(fā)表于 04-08 10:10 ?320次閱讀

    無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07

    鯤云科技與中國工業(yè)互聯(lián)網(wǎng)研究成立AI+安全生產(chǎn)聯(lián)合實驗室

    在 2025 年 1 月 14 日舉行的智算創(chuàng)新研究開業(yè)盛典上,鯤云科技與中國工業(yè)互聯(lián)網(wǎng)研究(以下簡稱“工聯(lián)”)正式宣布聯(lián)合成立“AI+安全生產(chǎn)
    的頭像 發(fā)表于 01-14 18:01 ?834次閱讀

    MLCommons推出AI基準測試0.5版

    開放式機器學習工程聯(lián)盟 MLCommons 在美國加州當?shù)貢r間公布推出適用于消費類 PC 的 AI 性能的 MLPerf Client 基準測試的 0.5 版,這是該測試的第一個公開版本
    的頭像 發(fā)表于 12-12 16:47 ?676次閱讀

    什么是LLMLLM在自然語言處理中的應用

    隨著人工智能技術的飛速發(fā)展,自然語言處理(NLP)領域迎來了革命性的進步。其中,大型語言模型(LLM)的出現(xiàn),標志著我們對語言理解能力的一次飛躍。LLM通過深度學習和海量數(shù)據(jù)訓練,使得機器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?3152次閱讀

    LLM和傳統(tǒng)機器學習的區(qū)別

    在人工智能領域,LLM(Large Language Models,大型語言模型)和傳統(tǒng)機器學習是兩種不同的技術路徑,它們在處理數(shù)據(jù)、模型結(jié)構(gòu)、應用場景等方面有著顯著的差異。 1. 模型結(jié)構(gòu)
    的頭像 發(fā)表于 11-08 09:25 ?1583次閱讀

    阿里達摩發(fā)布玄鐵R908 CPU

    在杭州第四屆RISC-V中國峰會上,阿里達摩再次展現(xiàn)技術實力,隆重推出了玄鐵處理器家族的最新成員——R908 CPU。此次發(fā)布標志著玄鐵系列在高端計算領域的全面升級,吸引了業(yè)界的廣泛
    的頭像 發(fā)表于 08-23 16:27 ?1321次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語言模型)是一種深度學習模型,主要用于處理自然語言處理(NLP)任務。LLM模型的格式多種多樣,以下是一些常見的LLM模型格式
    的頭像 發(fā)表于 07-09 09:59 ?1174次閱讀

    LLM模型的應用領域

    在本文中,我們將深入探討LLM(Large Language Model,大型語言模型)的應用領域。LLM是一種基于深度學習的人工智能技術,它能夠理解和生成自然語言文本。近年來,隨著計算能力的提高
    的頭像 發(fā)表于 07-09 09:52 ?1095次閱讀

    什么是LLMLLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領域的研究熱點。LLM以其強大的文本生成、理解和推理能力,在文本
    的頭像 發(fā)表于 07-02 11:45 ?1.2w次閱讀

    Meta發(fā)布基于Code Llama的LLM編譯器

    近日,科技巨頭Meta在其X平臺上正式宣布推出了一款革命性的LLM編譯器,這一模型家族基于Meta Code Llama構(gòu)建,并融合了先進的代碼優(yōu)化和編譯器功能。LLM編譯器的推出,標
    的頭像 發(fā)表于 06-29 17:54 ?1729次閱讀

    阿里達摩提出“知識鏈”框架,降低大模型幻覺

    近日,阿里巴巴達摩(湖畔實驗室)攜手新加坡南洋理工大學等研究機構(gòu),共同推出了大模型知識鏈(CoK)框架。該框架不僅可實時檢索異構(gòu)知識源,還能逐步糾正推理錯誤,有效提高了大模型在回答知
    的頭像 發(fā)表于 05-10 11:46 ?866次閱讀

    Yellow.ai 推出業(yè)界首款 Orchestrator LLM

    自動化領域的全球領導者 Yellow.ai?今天推出了 Orchestrator LLM,這是業(yè)界首創(chuàng)的代理模式,可在進行個性化
    的頭像 發(fā)表于 05-09 10:52 ?670次閱讀

    Snowflake推出面向企業(yè)AI的大語言模型

    Snowflake公司近日推出了企業(yè)級AI模型——Snowflake Arctic,這是一款大型語言模型(LLM),專為滿足企業(yè)復雜工作負載的需求而設計。Snowflake Arctic在多個關鍵領域,如SQL代碼生成和指令跟蹤
    的頭像 發(fā)表于 05-07 10:03 ?631次閱讀

    Snowflake推出企業(yè)級AI模型

    Snowflake公司近日重磅推出了一款名為Snowflake Arctic的企業(yè)級大型語言模型(LLM)。這款AI模型針對復雜的企業(yè)工作負載進行了深度優(yōu)化,特別是在SQL代碼生成和指令跟蹤等方面,表現(xiàn)卓越,已超越多個行業(yè)
    的頭像 發(fā)表于 05-06 14:38 ?571次閱讀
    主站蜘蛛池模板: 天天综合天天色 | 福利片午夜| 精品欧美 | 国产一级特黄全黄毛片 | 性欧美黑人xxxx | 最近2018年中文字幕免费图片 | 日本黄色短视频 | 天天干天天摸 | 国产人成精品香港三级古代 | you ji z z日本人在线观看 | 国产一级特黄高清免费大片 | 欧美高清milf在线播放 | 图片视频小说 | 天天干天天射天天爽 | 亚洲黄色第一页 | 日韩一级片在线免费观看 | 久久本道综合色狠狠五月 | 91啪在线视频 | 激情在线播放免费视频高清 | 99啪啪| 免费观看视频在线观看 | 国产中日韩一区二区三区 | 亚洲黄色网址 | 亚洲国产色婷婷精品综合在线观看 | 亚欧成人中文字幕一区 | 久久精品国产免费看久久精品 | 日本aaaa毛片在线看 | ww欧美 | 日本精品三级 | 日本动漫免费看 | 免费网站直接看 | 亚洲小说区图片区另类春色 | 免费欧美黄色 | 国产成人毛片亚洲精品不卡 | 2018天天拍拍拍免费视频 | 黄色绿像一级片 | 日本极度另类网站 | h版欧美一区二区三区四区 h网站亚洲 | 国产成人精品本亚洲 | 九九51精品国产免费看 | 性videofree极品另类 |