在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

云知聲四篇論文入選自然語言處理頂會ACL 2025

云知聲 ? 來源:云知聲 ? 2025-05-26 14:15 ? 次閱讀

近日,第63屆國際計算語言學(xué)年會ACL 2025(Annual Meeting of the Association for Computational Linguistics,簡稱ACL)論文接收結(jié)果正式公布。云知聲在此次國際學(xué)術(shù)盛會中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會論文(Main Paper)和2篇Findings。入選的4篇論文聚焦大語言模型知識溯源、圖文音多模態(tài)大模型、大語言模型可解釋性等關(guān)鍵領(lǐng)域,提出的創(chuàng)新理論和方法,為行業(yè)研究提供了新的思路。

ACL是自然語言處理領(lǐng)域最具影響力的國際會議之一,也是中國計算機(jī)學(xué)會(CCF)推薦的A類國際學(xué)術(shù)會議。該會議每年舉辦一次,由國際計算語言學(xué)學(xué)會協(xié)會主辦。本屆會議將于2025年7月27日至8月1日在奧地利維也納舉行。據(jù)統(tǒng)計,今年ACL總投稿數(shù)高達(dá)8000多篇,創(chuàng)歷史之最,被稱為ACL論文收錄競爭最為激烈的一年。

云知聲自2012年成立以來,在自然語言處理領(lǐng)域持續(xù)深耕,成果斐然。2017年Transformer及2018年BERT等深度學(xué)習(xí)模型的發(fā)布,推動了AI自然語言處理的重大突破。憑借自身在交互式AI方面的強(qiáng)大研發(fā)實力,云知聲迅速推出首個基于BERT的大語言模型UniCore,作為云知大腦的初始核心算法模型,為后續(xù)一系列AI解決方案在廣泛垂直行業(yè)的落地應(yīng)用奠定了堅實基礎(chǔ)。2023年,在自建的Atlas智算平臺和多年積累的海量數(shù)據(jù)支持下,云知聲推出了擁有千億參數(shù)的大語言模型——山海大模型,并持續(xù)對其進(jìn)行迭代升級。山海大模型不僅具備語言生成、知識問答、邏輯推理等十大核心能力,還在多模態(tài)技術(shù)方面不斷實現(xiàn)突破,持續(xù)拓展文生圖、音圖問答等前沿功能,極大地豐富了用戶交互體驗。

在技術(shù)攻堅過程中,云知聲收獲了多項與自然語言處理相關(guān)的專利。例如,多語言摘要的生成方法、知識增強(qiáng)的非自回歸神經(jīng)機(jī)器翻譯方法等,為多場景應(yīng)用提供了有力支撐。在學(xué)術(shù)研究與行業(yè)認(rèn)可方面,云知聲持續(xù)輸出優(yōu)質(zhì)成果,曾在CVPR 2024、INTERSPEECH 2023、ACM MM 2023等頂會發(fā)表多篇學(xué)術(shù)著作,并斬獲CVPR2024開放環(huán)境情感行為分析競賽三項季軍。此次再度登上國際學(xué)術(shù)舞臺,充分印證了云知聲在AI領(lǐng)域的技術(shù)創(chuàng)新實力,也將進(jìn)一步夯實其AGI技術(shù)底座。

以下為入選論文概覽:

1 研究方向:大語言模型知識溯源標(biāo)題:TROVE: A Challenge for Fine-Grained Text Provenance via Source Sentence Tracing and Relationship Classification作者:Junnan Zhu, Min Xiao, Yining Wang, Feifei Zhai, Yu Zhou,Chengqing Zong

論文簡介:大語言模型在文本生成中的流利性和連貫性方面已取得了顯著的進(jìn)展,然而其廣泛應(yīng)用引發(fā)了對內(nèi)容可靠性和責(zé)任心的擔(dān)憂。在醫(yī)療、法律和新聞等領(lǐng)域,幻覺容忍度極低,了解內(nèi)容的來源及其創(chuàng)作方式至關(guān)重要。為解決這一問題,我們推出了文本溯源任務(wù)(TROVE),旨在將目標(biāo)文本的每一句話追溯到可能冗長或多文檔輸入中的特定源句子。除了識別來源,TROVE還標(biāo)注細(xì)粒度的關(guān)系(引用、壓縮、推斷等),提供了每個大模型生成結(jié)果的細(xì)粒度分析。為TROVE任務(wù)建立基準(zhǔn),我們通過利用三個公開數(shù)據(jù)集構(gòu)建了我們的數(shù)據(jù)集,涵蓋了11種不同場景(例如問答和總結(jié)),包括英文和中文,且來源文本長度各異(0–5k,5–10k,10k+),并強(qiáng)化了對于溯源任務(wù)至關(guān)重要的多文檔和長文檔設(shè)置。為保證數(shù)據(jù)的高質(zhì)量,我們設(shè)計了三階段的注釋過程:句子檢索、GPT溯源及人工溯源。我們在提示工程和檢索增強(qiáng)模式下評估了11個大語言模型,結(jié)果顯示檢索對于魯棒性至關(guān)重要,較大的模型和閉源在各類任務(wù)中表現(xiàn)更佳,但在檢索增強(qiáng)的場景下,開源模型顯示出顯著優(yōu)勢。

71a0fad0-36f4-11f0-afc8-92fbcf53809c.png

2 研究方向:大語言模型的可解釋性標(biāo)題:Cracking Factual Knowledge: A Comprehensive Analysis of Degenerate Knowledge Neurons in Large Language Models作者:Yuheng Chen, Pengfei Cao, Yubo Chen, Yining Wang, Shengping Liu, Kang Liu, Jun Zhao

論文簡介:知識神經(jīng)元理論提供了一種理解大型語言模型(LLMs)中事實性知識機(jī)制的重要方法,該理論表明,事實性知識存儲在多層感知器神經(jīng)元中。本文進(jìn)一步探索了簡并知識神經(jīng)元(DKNs),即不同的神經(jīng)元集合可以存儲相同的事實,但與簡單的冗余機(jī)制不同,它們還參與存儲其他不同的事實性知識。盡管這一概念具有新穎性和獨(dú)特性,但尚未得到嚴(yán)謹(jǐn)定義和系統(tǒng)研究。我們的貢獻(xiàn)包括:(1) 我們通過分析權(quán)重連接模式,開創(chuàng)了對知識神經(jīng)元結(jié)構(gòu)的研究,從功能和結(jié)構(gòu)兩個方面提供了DKNs的全面定義。(2) 基于此定義,我們設(shè)計了神經(jīng)拓?fù)渚垲惙椒?,從而更?zhǔn)確地識別DKNs。(3) 我們展示了DKNs在兩個方面的實際應(yīng)用:引導(dǎo)大語言模型學(xué)習(xí)新知識以及增強(qiáng)大語言模型在輸入錯誤時的魯棒性。

71c3a10c-36f4-11f0-afc8-92fbcf53809c.png

3 研究方向:圖文音多模態(tài)大模型標(biāo)題:Investigating and Enhancing Vision-Audio Capability in Omni Modal Large Language Models作者:Rui Hu, Delai Qiu, Shuyu Wei, Jiaming Zhang,Yining Wang, Shengpeng Liu, Jitao Sang

論文簡介:全模態(tài)大語言模型(OLLMs)在整合視覺和文本方面取得了顯著進(jìn)展,但在整合視覺和音頻方面仍然存在困難。具體來說,與處理文本查詢相比,模型在處理音頻查詢時通常表現(xiàn)不佳。這種差異主要是由于在訓(xùn)練過程中視覺和音頻模態(tài)之間的對齊不足,導(dǎo)致在使用音頻查詢時對視覺信息的關(guān)注不夠。為了解決這一問題,我們提出了一種自知識蒸餾(Self-KD)的訓(xùn)練方法,其中以O(shè)LLM的視覺-文本組件作為教師模型,視覺-音頻組件作為學(xué)生模型。這使得模型能夠?qū)W習(xí)以類似于處理文本查詢的方式處理音頻查詢。實驗結(jié)果表明,Self-KD可以有效提升全模態(tài)語言模型視覺-音頻能力,其通過從視覺-文本組件中學(xué)習(xí),進(jìn)而改善音頻與圖像之間的交互,并最終提升多模態(tài)任務(wù)的性能。

71db8682-36f4-11f0-afc8-92fbcf53809c.png

4

研究方向:大語言模型檢索增強(qiáng)標(biāo)題:Transparentize the Internal and External Knowledge Utilization in LLMs with Trustworthy Citation作者:Jiajun Shen, Tong Zhou, Yubo Chen, Delai Qiu, Shengping Liu, Kang Liu, Jun Zhao

論文簡介:檢索增強(qiáng)生成和引文生成技術(shù)可以緩解大語言模型的幻覺問題,但模型調(diào)用內(nèi)部知識的機(jī)制仍不透明,其生成答案的可信度依然難以保證。為此,我們提出“基于上下文-先驗的引用生成”任務(wù),要求模型在綜合外部知識和內(nèi)部知識的基礎(chǔ)上生成可信的引用。 我們的主要貢獻(xiàn)包括: 1. 提出了“上下文-先驗的引用生成”任務(wù),要求模型能夠根據(jù)先驗知識合理引用參考文獻(xiàn),并制定了5項評價指標(biāo),包括 (1) 答案有效性準(zhǔn)確率,(2) 真實引用召回率,(3) 論證說服力,(4) 表述簡潔度,(5) 衡量參考文獻(xiàn)可信度的預(yù)期校準(zhǔn)誤差;從答案有效性、引用準(zhǔn)確性和結(jié)果可信度三個維度全面評估模型表現(xiàn)。 2. 開發(fā)了RAEL框架,要求模型審閱自我生成的相關(guān)概念或先驗知識,實現(xiàn)對上下文的準(zhǔn)確引述;INTRALIGN方法,通過多場景可信數(shù)據(jù)生成和可解釋性對齊,使模型能夠有效利用先驗知識輸出更可靠的回答。

3. 在4種不同場景下測試了3類大語言模型和6種基線方法。結(jié)果表明,現(xiàn)有方法難以全面提升任務(wù)效果,而我們的方案不僅能準(zhǔn)確引用參數(shù)化的內(nèi)部知識,還能顯著提高引用質(zhì)量和回答的可信度。

71f56714-36f4-11f0-afc8-92fbcf53809c.png

以上四篇論文的入選,是對云知聲堅持技術(shù)創(chuàng)新、推動產(chǎn)學(xué)研深度融合的有力肯定。未來,云知聲將繼續(xù)秉持開拓精神,深耕人工智能技術(shù),不斷探索和拓展大模型的應(yīng)用邊界,為全球科技進(jìn)步貢獻(xiàn)更多中國智慧和創(chuàng)新力量。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7636

    瀏覽量

    90259
  • 云知聲
    +關(guān)注

    關(guān)注

    0

    文章

    221

    瀏覽量

    8667
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14038

原文標(biāo)題:云知聲4篇論文成果入選自然語言處理頂會ACL 2025,大模型研究再獲突破

文章出處:【微信號:云知聲,微信公眾號:云知聲】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    后摩智能論文入選三大國際

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國際會收錄 5 論文后,后摩智能近期又有 4
    的頭像 發(fā)表于 05-29 15:37 ?224次閱讀

    后摩智能5論文入選國際

    2025年伊始,后摩智能在三大國際(AAAI、ICLR、DAC)中斬獲佳績,共有5論文被收錄,覆蓋大
    的頭像 發(fā)表于 02-19 14:02 ?637次閱讀
    后摩智能5<b class='flag-5'>篇</b><b class='flag-5'>論文</b><b class='flag-5'>入選</b>國際<b class='flag-5'>頂</b><b class='flag-5'>會</b>

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個分支,它致力于研究如何讓計算機(jī)能夠理解、解釋和生成人類語言。機(jī)器學(xué)習(xí)(Ma
    的頭像 發(fā)表于 12-05 15:21 ?1810次閱讀

    ASR與自然語言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動語音識別)與自然語言處理(NLP)是人工智能領(lǐng)域的兩個重要分支,它們在許多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?936次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展中,自然語言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問題,但側(cè)重點(diǎn)和應(yīng)用場景有所不同。 1. 自然語言處理(NLP) 定義:
    的頭像 發(fā)表于 11-11 10:35 ?1415次閱讀

    地平線科研論文入選國際計算機(jī)視覺ECCV 2024

    近日,地平線兩論文入選國際計算機(jī)視覺ECCV 2024,自動駕駛算法技術(shù)再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?1347次閱讀
    地平線科研<b class='flag-5'>論文</b><b class='flag-5'>入選</b>國際計算機(jī)視覺<b class='flag-5'>頂</b><b class='flag-5'>會</b>ECCV 2024

    圖像識別技術(shù)包括自然語言處理

    圖像識別技術(shù)與自然語言處理是人工智能領(lǐng)域的兩個重要分支,它們在很多方面有著密切的聯(lián)系,但也存在一些區(qū)別。 一、圖像識別技術(shù)與自然語言處理的關(guān)系 1.1 圖像識別技術(shù)的定義 圖像識別技術(shù)
    的頭像 發(fā)表于 07-16 10:54 ?1382次閱讀

    自然語言處理技術(shù)有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個分支,它致力于使計算機(jī)能夠理解、解釋和生成人類語言自然語言
    的頭像 發(fā)表于 07-03 14:30 ?2154次閱讀

    自然語言處理模式的優(yōu)點(diǎn)

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個重要分支,它致力于使計算機(jī)能夠理解、生成和處理人類語言。隨著技術(shù)的發(fā)展,
    的頭像 發(fā)表于 07-03 14:24 ?1175次閱讀

    自然語言處理技術(shù)的核心是什么

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個重要分支,其核心目標(biāo)是使計算機(jī)能夠理解、生成和處理人類語言。NLP技術(shù)的發(fā)展已經(jīng)取
    的頭像 發(fā)表于 07-03 14:20 ?1657次閱讀

    自然語言處理是什么技術(shù)的一種應(yīng)用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個分支,它涉及到使用計算機(jī)技術(shù)來處理、分析和生成
    的頭像 發(fā)表于 07-03 14:18 ?1984次閱讀

    自然語言處理包括哪些內(nèi)容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個重要分支,它涉及到計算機(jī)與人類語言之間的交互。NLP的目標(biāo)是讓計算機(jī)能夠理解、生成和處理
    的頭像 發(fā)表于 07-03 14:15 ?1743次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領(lǐng)域中的一個重要分支,它專注于構(gòu)建能夠理解和生成人類語言的計算機(jī)系統(tǒng)。NLP的目標(biāo)是使計算機(jī)能夠像人類一樣
    的頭像 發(fā)表于 07-02 18:16 ?1851次閱讀

    自然語言處理技術(shù)的原理的應(yīng)用

    自然語言處理(Natural Language Processing, NLP)作為人工智能(AI)領(lǐng)域的一個重要分支,旨在使計算機(jī)能夠理解和處理人類自然語言。隨著互聯(lián)網(wǎng)的普及和大數(shù)據(jù)
    的頭像 發(fā)表于 07-02 12:50 ?1226次閱讀

    神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域中的一個重要分支,它研究的是如何使計算機(jī)能夠理解和生成人類自然語言。隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在自然語言
    的頭像 發(fā)表于 07-01 14:09 ?854次閱讀
    主站蜘蛛池模板: 九九热在线视频观看这里只有精品 | 6080国产午夜精品 | 久久观看午夜精品 | 亚洲精品456 | 国产黄网站 | 老司机深夜影院入口aaaa | 国产黄网站在线观看 | 国产午夜视频高清 | 91正在播放 | 绝色村妇的泛滥春情 | 色噜噜狠狠狠色综合久 | 成人a毛片视频免费看 | ccc36色影 | 色综合久 | 天天爽夜夜爽人人爽一区二区 | 国产精品福利久久 | 国产精品美女久久久久网 | 老湿成人影院 | 性瘾高h姚蕊全文免费阅读 性做久久久久 | 欧美中出在线 | 免费又黄又爽的禁片视频 | 日本在线观看永久免费网站 | 五月激情六月丁香 | 五月婷色 | aa亚洲| 日本视频www色 | 色欲情狂 | 成年人午夜影院 | 婷婷色5月 | 黄色视屏在线免费观看 | 亚洲电影二区 | 欧美黄色免费网站 | 色综合天天综合给合国产 | 色香蕉在线观看网站 | 欧美成人性高清观看 | 爱综合网 | 美女午夜| 天堂在线中文无弹窗全文阅读 | 一级特黄a 大片免费 | 精品国产理论在线观看不卡 | 一级国产特黄aa大片 |