在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文了解百度被收錄ACL 2019的10篇論文

WpOh_rgznai100 ? 來(lái)源:lq ? 2019-06-07 16:58 ? 次閱讀

近日,自然語(yǔ)言處理(NLP)領(lǐng)域的國(guó)際頂級(jí)學(xué)術(shù)會(huì)議“國(guó)際計(jì)算語(yǔ)言學(xué)協(xié)會(huì)年會(huì)”(ACL 2019)公布了今年大會(huì)論文錄用結(jié)果。根據(jù) ACL 2019 官方數(shù)據(jù),今年大會(huì)的有效投稿數(shù)量達(dá)到 2694 篇,相比去年的 1544 篇增長(zhǎng)高達(dá) 75%。其中,百度共有 10 篇論文被大會(huì)收錄。

國(guó)際計(jì)算語(yǔ)言學(xué)協(xié)會(huì)(ACL,The Association for Computational Linguistics)成立于 1962 年,是自然語(yǔ)言處理領(lǐng)域影響力最大、最具活力的國(guó)際學(xué)術(shù)組織之一,自成立之日起就致力于推動(dòng)計(jì)算語(yǔ)言學(xué)及自然語(yǔ)言處理相關(guān)研究的發(fā)展和國(guó)際學(xué)術(shù)交流。百度高級(jí)副總裁、AI 技術(shù)平臺(tái)體系 (AIG) 和基礎(chǔ)技術(shù)體系(TG)總負(fù)責(zé)人王海峰曾于 2013 年出任 ACL 主席,是 ACL 五十多年歷史上首位華人主席,也是 ACL 亞太分會(huì)(AACL)的創(chuàng)始主席,ACL 會(huì)士。研究論文能夠被 ACL 學(xué)術(shù)年會(huì)錄用,意味著研究成果得到了國(guó)際學(xué)術(shù)界的認(rèn)可。

百度被錄用的 10 篇論文,覆蓋了信息抽取、機(jī)器閱讀理解、對(duì)話系統(tǒng)、視頻語(yǔ)義理解、機(jī)器翻譯等諸多 NLP 領(lǐng)域的熱點(diǎn)和前沿研究方向,提出了包括基于注意力正則化的 ARNOR 框架(Attention Regularization based NOise Reduction)、語(yǔ)言表示與知識(shí)表示深度融合的 KT-NET 模型、多粒度跨模態(tài)注意力機(jī)制、基于端到端深度強(qiáng)化學(xué)習(xí)的共指解析方法等,在人機(jī)交互、智能客服、視頻理解、機(jī)器翻譯等場(chǎng)景中具有很大的應(yīng)用價(jià)值。

附:百度被收錄 ACL 2019 論文概覽

ARNOR: Attention Regularization based Noise Reduction for Distant Supervision Relation Classification

摘要:遠(yuǎn)監(jiān)督通過(guò)知識(shí)庫(kù)自動(dòng)獲取標(biāo)注語(yǔ)料,是關(guān)系抽取的關(guān)鍵算法。但是遠(yuǎn)監(jiān)督通常會(huì)引入大量噪聲數(shù)據(jù),即句子并未表達(dá)自動(dòng)標(biāo)注的關(guān)系。進(jìn)一步說(shuō),基于遠(yuǎn)監(jiān)督學(xué)習(xí)的模型效果不佳、解釋性差,無(wú)法解釋關(guān)系的指示詞。

為此,我們提出基于注意力正則化的 ARNOR 框架(Attention Regularization based NOise Reduction)。此方法通過(guò)注意力機(jī)制,要求模型能夠關(guān)注關(guān)系的指示詞,進(jìn)而識(shí)別噪聲數(shù)據(jù),并通過(guò) bootstrap 方法逐步選擇出高質(zhì)量的標(biāo)注數(shù)據(jù),改善模型效果。此方法在關(guān)系分類及降噪上均顯著優(yōu)于此前最好的增強(qiáng)學(xué)習(xí)算法。

應(yīng)用價(jià)值:在文本信息抽取有廣泛的應(yīng)用價(jià)值。此方法能夠顯著降低對(duì)標(biāo)注數(shù)據(jù)的依賴,實(shí)現(xiàn)低成本的基于知識(shí)庫(kù)的自動(dòng)關(guān)系學(xué)習(xí),未來(lái)可落地在醫(yī)療、金融等行業(yè)信息抽取中。

Enhancing Pre-trained Language Representations with Rich Knowledge for Machine Reading Comprehension

摘要:機(jī)器閱讀理解 (Machine Reading Comprehension) 是指讓機(jī)器閱讀文本,然后回答和閱讀內(nèi)容相關(guān)的問(wèn)題。該技術(shù)可以使機(jī)器具備從文本數(shù)據(jù)中獲取知識(shí)并回答問(wèn)題的能力,是構(gòu)建通用人工智能的關(guān)鍵技術(shù)之一,長(zhǎng)期以來(lái)受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。近兩年,預(yù)訓(xùn)練語(yǔ)言表示模型在機(jī)器閱讀理解任務(wù)上取得了突破性進(jìn)展。通過(guò)在海量無(wú)標(biāo)注文本數(shù)據(jù)上預(yù)訓(xùn)練足夠深的網(wǎng)絡(luò)結(jié)構(gòu),當(dāng)前最先進(jìn)的語(yǔ)言表示模型能夠捕捉復(fù)雜的語(yǔ)言現(xiàn)象,更好地理解語(yǔ)言、回答問(wèn)題。然而,正如大家所熟知的,真正意義上的閱讀理解不僅要求機(jī)器具備語(yǔ)言理解的能力,還要求機(jī)器具備知識(shí)以支撐復(fù)雜的推理。為此,在論文《Enhancing Pre-trained Language Representations with Rich Knowledge for Machine Reading Comprehension》中,百度開(kāi)創(chuàng)性地提出了語(yǔ)言表示與知識(shí)表示的深度融合模型 KT-NET,希望同時(shí)借助語(yǔ)言和知識(shí)的力量進(jìn)一步提升機(jī)器閱讀理解的效果。

KT-NET 的模型架構(gòu)如下圖所示。首先,針對(duì)給定的閱讀內(nèi)容和結(jié)構(gòu)化知識(shí)圖譜,分別利用語(yǔ)言表示模型和知識(shí)表示模型對(duì)兩者進(jìn)行編碼,得到相應(yīng)的文本表示和知識(shí)表示。接下來(lái),利用注意力機(jī)制從知識(shí)圖譜中自動(dòng)篩選并整合與閱讀內(nèi)容高度相關(guān)的知識(shí)。最后,通過(guò)雙層自注意力匹配,實(shí)現(xiàn)文本表示和知識(shí)表示的深度融合,提升答案邊界預(yù)測(cè)的準(zhǔn)確性。截止到發(fā)稿日,KT-NET 仍然是常識(shí)推理閱讀理解數(shù)據(jù)集 ReCoRD 榜單上排名第一的模型,并在此前很長(zhǎng)一段時(shí)期內(nèi)都是 SQuAD 1.1 榜單上效果最好的單模型。

KT-NET: 語(yǔ)言表示與知識(shí)表示的深度融合模型

應(yīng)用價(jià)值:該項(xiàng)技術(shù)可應(yīng)用于搜索問(wèn)答智能音箱等產(chǎn)品中,直接精準(zhǔn)定位用戶輸入問(wèn)題的答案,并在搜索結(jié)果首條顯著位置呈現(xiàn)或通過(guò)語(yǔ)音播報(bào)呈現(xiàn)給用戶。

Know More about Each Other: Evolving Dialogue Strategy via Compound Assessment

摘要:現(xiàn)有的基于監(jiān)督學(xué)習(xí)的對(duì)話系統(tǒng),缺乏對(duì)多輪回復(fù)方向的控制和規(guī)劃,通常導(dǎo)致對(duì)話中發(fā)生重復(fù)、發(fā)散等問(wèn)題,使得用戶的交互體驗(yàn)偏差。 在本文中,我們對(duì)多輪對(duì)話進(jìn)行了復(fù)合評(píng)估 (compound assessment),并基于該評(píng)估利用強(qiáng)化學(xué)習(xí)優(yōu)化兩個(gè)自對(duì)話 (self-play) 的機(jī)器人,促進(jìn)生成過(guò)程中較好地控制多輪對(duì)話的方向。考慮到對(duì)話的一個(gè)主要?jiǎng)訖C(jī)是進(jìn)行有效的信息交換,針對(duì) Persona Chat 問(wèn)題(兩個(gè)人相互對(duì)話聊興趣愛(ài)好),我們?cè)O(shè)計(jì)了一個(gè)較為完善的評(píng)估系統(tǒng),包括對(duì)話的信息量和連貫度兩個(gè)主要方面。我們利用復(fù)合評(píng)估作為 reward,基于策略梯度算法 (policy gradient),指導(dǎo)優(yōu)化兩個(gè)同構(gòu)的對(duì)話生成機(jī)器人之間的對(duì)話策略 (dialogue strategy)。該對(duì)話策略通過(guò)控制知識(shí)的選擇來(lái)主導(dǎo)對(duì)話的流向。 我們公開(kāi)數(shù)據(jù)集上進(jìn)行了全面的實(shí)驗(yàn),結(jié)果驗(yàn)證了我們提出的方法生成的多輪對(duì)話質(zhì)量,顯著超過(guò)其他最優(yōu)方法。

應(yīng)用價(jià)值:可應(yīng)用于對(duì)話系統(tǒng)、智能客服。

Proactive Human-Machine Conversation with Explicit Conversation Goal

摘要:目前的人機(jī)對(duì)話還處于初級(jí)水平,機(jī)器大多是被動(dòng)對(duì)話,無(wú)法像人類一樣進(jìn)行充分交互。我們提出了基于知識(shí)圖譜的主動(dòng)對(duì)話任務(wù),讓機(jī)器像人類一樣主動(dòng)和用戶進(jìn)行對(duì)話。對(duì)話過(guò)程中,機(jī)器根據(jù)知識(shí)圖譜主動(dòng)引領(lǐng)對(duì)話進(jìn)程完成提前設(shè)定的話題 (實(shí)體) 轉(zhuǎn)移目標(biāo),并保持對(duì)話的自然和流暢性。為此,我們?cè)陔娪昂蛫蕵?lè)任務(wù)領(lǐng)域人工標(biāo)注 3 萬(wàn)組共 27 萬(wàn)個(gè)句子的主動(dòng)對(duì)話語(yǔ)料,并實(shí)現(xiàn)了生成和檢索的兩個(gè)主動(dòng)對(duì)話基線模型。

應(yīng)用價(jià)值:可應(yīng)用于智能音箱中的對(duì)話技能,也可以基于此開(kāi)發(fā)閑聊技能,讓機(jī)器主動(dòng)發(fā)起基于知識(shí)圖譜的聊天。

Multi-grained Attention with Object-level Grounding for Visual Question Answering

摘要:視覺(jué)問(wèn)答 (VQA) 是一類跨模態(tài)信息理解任務(wù),要求系統(tǒng)理解視覺(jué)圖片信息,并回答圍繞圖片內(nèi)容的文本問(wèn)題。這篇文章提出一種多粒度跨模態(tài)注意力機(jī)制,在圖片 - 句子粒度注意力的基礎(chǔ)上,提出更細(xì)粒度的物體級(jí)別跨模態(tài)信息注意力機(jī)制,并給出 2 種有效的細(xì)粒度信息理解增強(qiáng)的方法。實(shí)驗(yàn)表明我們的方法有助于對(duì)復(fù)雜圖像和細(xì)小物體的識(shí)別,使系統(tǒng)更準(zhǔn)確地定位到回答文本問(wèn)題所依賴的視覺(jué)信息,從而顯著提升 VQA 準(zhǔn)確率。

應(yīng)用價(jià)值:可應(yīng)用于基于多模態(tài)信息和知識(shí)圖譜的小視頻內(nèi)容理解項(xiàng)目。

Hubless Nearest Neighbor Search for Bilingual Lexicon Induction

摘要:這項(xiàng)基礎(chǔ)研究提出了一種提高最近鄰搜索的方法。該方法有非常漂亮的理論基礎(chǔ),不僅能顯著提升雙語(yǔ)詞典編纂(Bilingual Lexicon Induction)的準(zhǔn)確率,對(duì)涉及最近鄰搜索的很多任務(wù)都有指導(dǎo)意義。

應(yīng)用價(jià)值:機(jī)器翻譯需要大量對(duì)齊的雙語(yǔ)文本作為訓(xùn)練數(shù)據(jù)。這一要求在某些情況下不能被滿足,比如小語(yǔ)種文本,專業(yè)文獻(xiàn)。雙語(yǔ)詞典編纂在這種情況下能提升翻譯系統(tǒng)的準(zhǔn)確率。

STACL: Simultaneous Translation with Implicit Anticipation and Controllable Latency

摘要:同聲翻譯是人工智能領(lǐng)域公認(rèn)的最難問(wèn)題之一,已經(jīng)困擾學(xué)術(shù)界和工業(yè)界幾十年了。我們提出了歷史上第一個(gè)超前預(yù)測(cè)和可控延遲的同聲翻譯算法。去年 10 月發(fā)布以來(lái),被各大技術(shù)外媒廣泛報(bào)導(dǎo),包括 MIT 技術(shù)評(píng)論、IEEE Spectrum、財(cái)富雜志等。量子位總結(jié)報(bào)道:“這是 2016 年百度 Deep Speech 2 發(fā)布以來(lái),又一項(xiàng)讓技術(shù)外媒們?nèi)绱思?dòng)的新進(jìn)展。”

應(yīng)用價(jià)值:2018 年 11 月的百度世界大會(huì)采用了這項(xiàng)同傳技術(shù),全程同傳翻譯了 Robin 所有演講,延遲僅為 3 秒左右,而之前的整句翻譯技術(shù)延遲為一整句(可達(dá) 10 秒以上)。同時(shí),翻譯質(zhì)量也沒(méi)有明顯的下降。

Simultaneous Translation with Flexible Policy via Restricted Imitation Learning

摘要:本文旨在提高同聲翻譯的質(zhì)量。我們?nèi)ツ晏岢龅?STACL 框架(即上述文章 7)雖然簡(jiǎn)單有效,但有時(shí)不夠靈活。現(xiàn)在我們提出一種基于模仿學(xué)習(xí)的同聲翻譯算法,通過(guò)模仿本文設(shè)計(jì)的動(dòng)態(tài)策略,該模型可以實(shí)時(shí)靈活地決定是否需要等待更多信息來(lái)繼續(xù)翻譯,進(jìn)而在保持低延遲的情況下提高了翻譯質(zhì)量。

應(yīng)用價(jià)值:該技術(shù)可用于同聲傳譯系統(tǒng)。

Robust Neural Machine Translation with Joint Textual and Phonetic Embedding

摘要:該文章旨在提高翻譯的魯棒性,特別是對(duì)同音詞噪音的魯棒性。我們?cè)诜g的輸入端,通過(guò)聯(lián)合嵌入的方式,加入輸入單詞對(duì)應(yīng)的發(fā)音信息。實(shí)驗(yàn)結(jié)果表明,該方法不僅大大提高了翻譯系統(tǒng)在噪聲情況下的魯棒性,也大幅提高了翻譯系統(tǒng)在非噪聲情況下的性能。

應(yīng)用價(jià)值:可用于翻譯,特別是語(yǔ)音到語(yǔ)音的同聲傳譯系統(tǒng)。語(yǔ)音翻譯的一個(gè)主要難題是語(yǔ)音識(shí)別的錯(cuò)誤太多,而這些錯(cuò)誤大多是同音詞或發(fā)音相似的單詞,此技術(shù)可以很大程度上降低這些來(lái)自于語(yǔ)音識(shí)別的噪音。

End-to-end Deep Reinforcement Learning Based Coreference Resolution

摘要:共指解析是信息抽取任務(wù)中不可或缺的組成部分。近期的基于端到端深度神經(jīng)網(wǎng)絡(luò)的方法,往往通過(guò)優(yōu)化啟發(fā)式的損失函數(shù)并做出一系列局部解析決策,缺乏對(duì)整個(gè)篇章的理解。本文首次提出了基于端到端深度強(qiáng)化學(xué)習(xí)的共指解析方法,在同一框架內(nèi)完成指稱檢測(cè)和指稱鏈接,并且直接優(yōu)化共指解析的評(píng)價(jià)指標(biāo),在 OntoNotes 上取得了良好效果。

應(yīng)用價(jià)值:知可用于識(shí)圖譜構(gòu)建,信息抽取。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 百度
    +關(guān)注

    關(guān)注

    9

    文章

    2330

    瀏覽量

    91934
  • 論文
    +關(guān)注

    關(guān)注

    1

    文章

    103

    瀏覽量

    15161
  • ACL
    ACL
    +關(guān)注

    關(guān)注

    0

    文章

    61

    瀏覽量

    12373

原文標(biāo)題:史上最大規(guī)模ACL大會(huì)放榜,百度10篇NLP論文被錄用!

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    后摩智能四論文入選三大國(guó)際頂會(huì)

    2025 年上半年,繼年初 AAAI、ICLR、DAC 三大國(guó)際頂會(huì)收錄 5 論文后,后摩智能近期又有 4
    的頭像 發(fā)表于 05-29 15:37 ?249次閱讀

    云知聲四論文入選自然語(yǔ)言處理頂會(huì)ACL 2025

    結(jié)果正式公布。云知聲在此次國(guó)際學(xué)術(shù)盛會(huì)中表現(xiàn)卓越,共有4論文接收,其中包括2主會(huì)論文(Main Paper)和2
    的頭像 發(fā)表于 05-26 14:15 ?385次閱讀
    云知聲四<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選自然語(yǔ)言處理頂會(huì)<b class='flag-5'>ACL</b> 2025

    百度心大模型X1 Turbo獲得信通院當(dāng)前大模型最高評(píng)級(jí)證書

    百度在520居然還領(lǐng)了個(gè)證?是它, 信通院當(dāng)前大模型最高評(píng)級(jí)證書 ! 在5月20日的百度AI Day 上,中國(guó)信通院公布了大模型推理能力評(píng)估結(jié)果—— 百度心大模型X1 Turbo在2
    的頭像 發(fā)表于 05-21 18:19 ?549次閱讀
    <b class='flag-5'>百度</b><b class='flag-5'>文</b>心大模型X1 Turbo獲得信通院當(dāng)前大模型最高評(píng)級(jí)證書

    百度發(fā)布心4.5 Turbo、X1 Turbo和多款A(yù)I應(yīng)用

    近日,Create2025百度AI開(kāi)發(fā)者大會(huì)在武漢舉辦。百度創(chuàng)始人李彥宏發(fā)布了心大模型4.5 Turbo及深度思考模型X1 Turbo兩大模型,以及多款A(yù)I應(yīng)用。王海峰現(xiàn)場(chǎng)詳細(xì)解讀了背后的技術(shù)。
    的頭像 發(fā)表于 04-30 10:16 ?438次閱讀

    百度心大模型將升級(jí)并開(kāi)源

    百度近日宣布,其文心大模型系列將迎來(lái)新版本升級(jí),計(jì)劃在未來(lái)數(shù)月內(nèi)逐步推出文心大模型4.5系列。這消息無(wú)疑為AI領(lǐng)域注入了新的活力。 據(jù)悉,百度心大模型4.5系列將在技術(shù)上進(jìn)行全面優(yōu)
    的頭像 發(fā)表于 02-14 14:25 ?412次閱讀

    百度心大模型4月1日起全面免費(fèi)開(kāi)放

    近日,百度公司正式對(duì)外宣布,其備受關(guān)注的心大模型在經(jīng)過(guò)系列迭代與優(yōu)化后,將于4月1日零時(shí)全面免費(fèi)開(kāi)放給所有用戶。此次免費(fèi)開(kāi)放的覆蓋范圍廣泛,包括所有PC端及App端用戶,讓用戶能夠盡情體驗(yàn)
    的頭像 發(fā)表于 02-14 09:19 ?448次閱讀

    百度科啟動(dòng)“繁星計(jì)劃”

    百度搜索的強(qiáng)大流量,為百度科注入新的活力與動(dòng)能。 據(jù)悉,“繁星計(jì)劃”預(yù)計(jì)覆蓋超過(guò)10萬(wàn)名權(quán)威專家,并將涵蓋超過(guò)100萬(wàn)的知識(shí)內(nèi)容,旨在通過(guò)科技的力量,讓知識(shí)的傳播更加廣泛、深入。這
    的頭像 發(fā)表于 12-31 10:26 ?639次閱讀

    百度心智能體平臺(tái)榮登中國(guó)互聯(lián)網(wǎng)創(chuàng)新發(fā)展典型案例

    技術(shù)能力和百度生態(tài)的億級(jí)分發(fā)優(yōu)勢(shì),為開(kāi)發(fā)者提供了從創(chuàng)意到商業(yè)化的全方位支持。截至2024年11月,該平臺(tái)已經(jīng)吸引了15萬(wàn)家企業(yè)和80萬(wàn)名開(kāi)發(fā)者入駐,形成了個(gè)龐大且活躍的創(chuàng)新生態(tài)。 值得提的是,在
    的頭像 發(fā)表于 11-22 11:28 ?993次閱讀

    百度心大模型日均調(diào)用量超15億

    近日,百度在上海世博中心舉辦了主題為“應(yīng)用來(lái)了”的百度世界2024大會(huì)。會(huì)上,百度董事長(zhǎng)李彥宏分享了關(guān)于大模型行業(yè)的最新動(dòng)態(tài)和百度心大模型
    的頭像 發(fā)表于 11-12 15:28 ?646次閱讀

    李彥宏宣布:百度心大模型日調(diào)用量超15億

    百度世界2024大會(huì)上,百度公司創(chuàng)始人李彥宏宣布了項(xiàng)令人矚目的數(shù)據(jù):百度心大模型的日調(diào)用量已經(jīng)超過(guò)15億次。這
    的頭像 發(fā)表于 11-12 10:40 ?524次閱讀

    百度市值低估?分析師看好其長(zhǎng)期發(fā)展?jié)摿?/a>

    近期,盡管微軟和Meta公布了超預(yù)期的財(cái)報(bào),但市場(chǎng)對(duì)人工智能領(lǐng)域的熱情似乎有所減退。在此背景下,中概股也普遍走低,百度同樣未能幸免。然而,多位分析師對(duì)百度的長(zhǎng)期發(fā)展?jié)摿Ρ硎究春茫J(rèn)為其市值低估。
    的頭像 發(fā)表于 11-05 11:16 ?1525次閱讀

    百度言APP升級(jí)為小言

    百度宣布其文心言APP正式升級(jí)為小言,標(biāo)志著百度在智能搜索領(lǐng)域邁出了重要步。小言作為
    的頭像 發(fā)表于 09-04 16:06 ?925次閱讀

    百度心大模型4.0免費(fèi)了 百度心智能體平臺(tái)免費(fèi)開(kāi)放心大模型4.0

    據(jù)悉;7月5日起 百度心智能體平臺(tái)(AgentBuilder) 免費(fèi)開(kāi)放心大模型4.0。 開(kāi)發(fā)者在心智能體平臺(tái)上制作智能體時(shí); 可靈活選擇
    的頭像 發(fā)表于 07-06 17:12 ?1532次閱讀

    百度發(fā)布智能代碼助手“心快碼”

    在近日舉辦的WAVE SUMMIT大會(huì)上,百度公司震撼發(fā)布了全新的智能代碼助手——“心快碼”。這款基于百度心大模型的強(qiáng)大工具,結(jié)合了海量的編程數(shù)據(jù),旨在為開(kāi)發(fā)者提供
    的頭像 發(fā)表于 07-01 11:20 ?1250次閱讀

    百度推出全新智能代碼助手心快碼,引領(lǐng)編碼效率新革命

    在6月28日的百度WAVE SUMMIT深度學(xué)習(xí)開(kāi)發(fā)者大會(huì)上,百度公司宣布了其旗下備受矚目的智能代碼助手Baidu Comate的正式中文名稱——“心快碼”。這創(chuàng)新工具的問(wèn)世,標(biāo)志
    的頭像 發(fā)表于 06-29 16:26 ?1254次閱讀
    主站蜘蛛池模板: 好男人午夜www视频在线观看 | 色射啪 | 久久精彩免费视频 | 人人爽影院 | 特黄色一级毛片 | 五月天婷婷在线视频国产在线 | 酒色成人| 欧美一级欧美一级高清 | 欧美白人极品性喷潮 | 性欧美成人依依影院 | 狠狠综合| 奇米四色777亚洲图 奇米影视四色首页手机在线 | 免费h视频 | 午夜视频免费在线观看 | 四虎国产永久在线观看 | 天堂a免费视频在线观看 | 国产嫩草影院在线观看 | xxx日本69hd| 免费人成在线观看网站品爱网日本 | 99精品国产在热久久 | www.日本黄色 | 色多多视频网站 | 中文字幕一二三区 | 四虎成人精品在永久在线观看 | 毛片免费观看 | 夜夜夜精品视频免费 | 国产精品久久久久久久久福利 | 天天摸天天做天天爽在线 | a毛片基地免费全部香蕉 | 久久综合狠狠综合狠狠 | 色偷偷成人网免费视频男人的天堂 | 在线观看亚洲天堂 | 色老头在线精品视频在线播放 | 国产床戏无遮掩视频播放 | 五月四房婷婷 | 97午夜| 久久久婷婷| 国产毛片一区二区三区精品 | 欲色综合| 91久久另类重口变态 | 一级特黄a 大片免费 |