在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大語(yǔ)言模型的多語(yǔ)言機(jī)器翻譯能力分析

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:南大NLP ? 2023-05-17 09:56 ? 次閱讀

01

研究動(dòng)機(jī)

以ChatGPT為代表的大語(yǔ)言模型(Large Language Models, LLM)在機(jī)器翻譯(Machine Translation, MT)任務(wù)上展現(xiàn)出了驚人的潛力。通過(guò)情景學(xué)習(xí)(In-Context Learning,ICL),大語(yǔ)言模型可以根據(jù)任務(wù)示例和任務(wù)指令,在不更新模型參數(shù)的情況下,完成特定下游任務(wù)。然而,值得注意的是,這些大語(yǔ)言模型主要基于大規(guī)模的數(shù)據(jù)進(jìn)行語(yǔ)言模型任務(wù)的學(xué)習(xí),并沒有在大規(guī)模多語(yǔ)言翻譯數(shù)據(jù)上訓(xùn)練過(guò),我們非常好奇于:(1)大語(yǔ)言模型的多語(yǔ)言機(jī)器翻譯能力如何?(2)哪些因素會(huì)影響大語(yǔ)言模型的翻譯表現(xiàn)?為了探究這些問(wèn)題,本文評(píng)測(cè)了XGLM[1],OPT[2],BLOOMZ[3],ChatGPT[4]等眾多熱門大語(yǔ)言模型在百余種語(yǔ)言上的翻譯能力,并且分析了在情景學(xué)習(xí)中各種因素對(duì)翻譯效果的影響。

02

貢獻(xiàn)

1. 本文在102種語(yǔ)言以及202個(gè)以英文為核心的翻譯方向上全面地評(píng)測(cè)了包括ChatGPT在內(nèi)的熱門大語(yǔ)言模型的多語(yǔ)言機(jī)器翻譯能力。

2. 本文系統(tǒng)地報(bào)告了一系列大語(yǔ)言模型以及兩個(gè)有監(jiān)督基線的翻譯表現(xiàn),為后續(xù)大語(yǔ)言模型和多語(yǔ)言機(jī)器翻譯研究工作提供了有力參照。

3. 本文還發(fā)現(xiàn)了在機(jī)器翻譯任務(wù)上大語(yǔ)言模型展現(xiàn)出了一些新的工作模式。

03

實(shí)驗(yàn)設(shè)定

為了全面地衡量大語(yǔ)言模型的多語(yǔ)言機(jī)器翻譯能力,本文選用Flores-101數(shù)據(jù)集[5]進(jìn)行實(shí)驗(yàn)。在應(yīng)用大語(yǔ)言模型進(jìn)行情景學(xué)習(xí)的過(guò)程中,本文設(shè)置任務(wù)示例數(shù)目為8,任務(wù)指令模版為“=”,其中“”和“”分別為源句和目標(biāo)句對(duì)應(yīng)的占位符。此外,本文也報(bào)告了M2M-100-12B[6]以及NLLB-1.3B[7]這兩個(gè)強(qiáng)大的傳統(tǒng)有監(jiān)督模型的多語(yǔ)言翻譯表現(xiàn)作為參照。

04

大語(yǔ)言模型多語(yǔ)言機(jī)器翻譯能力評(píng)測(cè)

在系統(tǒng)地評(píng)測(cè)大語(yǔ)言模型的多語(yǔ)言翻譯能力后,本文得出了以下主要結(jié)論:

1. 在評(píng)測(cè)的四種大語(yǔ)言模型中,ChatGPT展現(xiàn)了最好的多語(yǔ)言機(jī)器翻譯效果:相比于只經(jīng)過(guò)預(yù)訓(xùn)練(pre-traing)的XGLM和OPT,經(jīng)過(guò)指令微調(diào)(instruction-tuning)的BLOOMZ和ChatGPT展現(xiàn)了更好的翻譯表現(xiàn)(表格1)。值得注意的是,BLOOMZ在七組翻譯方向上超過(guò)了有監(jiān)督基線模型,而ChatGPT在所有被評(píng)測(cè)的大語(yǔ)言模型中取得了最好的綜合翻譯表現(xiàn)。

2. 大語(yǔ)言模型翻譯其他語(yǔ)言到英語(yǔ)的表現(xiàn)往往比翻譯英語(yǔ)到其他語(yǔ)言的表現(xiàn)要好:此前的研究發(fā)現(xiàn)大語(yǔ)言模型在將其他語(yǔ)言翻譯到英語(yǔ)時(shí)往往有很好的表現(xiàn),而在將英語(yǔ)翻譯到其他語(yǔ)言時(shí)則表現(xiàn)較差。本文發(fā)現(xiàn)XGLM,OPT,BLOOMZ,ChatGPT也都存在這種偏好。但是,值得注意的是,ChatGPT已經(jīng)極大地改善了這種傾向。

表格 1 不同模型在各語(yǔ)系上的平均BLEU分?jǐn)?shù)

8a31643c-f3de-11ed-90ce-dac502259ad0.png

3. 在大部分語(yǔ)言上,尤其是低資源語(yǔ)言,大語(yǔ)言模型的翻譯效果仍然落后于強(qiáng)大的有監(jiān)督基線模型:圖1中畫出來(lái)了ChatGPT和NLLB模型在各個(gè)語(yǔ)言上的翻譯表現(xiàn),可以看出在圖片的左半部分,ChatGPT可以取得與NLLB相似的性能,而在圖片的右半部分,在低資源語(yǔ)言翻譯上,ChatGPT仍然遠(yuǎn)遠(yuǎn)落后于傳統(tǒng)的有監(jiān)督基線模型。

8a3a66a4-f3de-11ed-90ce-dac502259ad0.png

圖 1 ChatGPT和NLLB在各語(yǔ)言上的翻譯表現(xiàn)對(duì)比

4. 指令微調(diào)過(guò)的大語(yǔ)言模型仍然可以從任務(wù)示例中受益:本文對(duì)比了BLOOMZ和ChatGPT這兩個(gè)經(jīng)過(guò)指令微調(diào)的模型在任務(wù)樣例數(shù)目分別為0和8時(shí)的翻譯表現(xiàn)(圖2),可以看出即使對(duì)于指令微調(diào)過(guò)的模型,提供任務(wù)示例依然可以進(jìn)一步提升其翻譯能力。這也是本文在評(píng)測(cè)大語(yǔ)言模型翻譯能力同時(shí)提供任務(wù)示例和任務(wù)指令的原因。

8a4223a8-f3de-11ed-90ce-dac502259ad0.png

圖 2 BLOOMZ和ChatGPT在給定不同數(shù)目的任務(wù)示例時(shí)的翻譯表現(xiàn)對(duì)比

5. 在公開數(shù)據(jù)上評(píng)測(cè)大語(yǔ)言模型有數(shù)據(jù)泄漏的風(fēng)險(xiǎn):為了考察數(shù)據(jù)泄漏對(duì)評(píng)測(cè)結(jié)果的影響,本文基于近期的英語(yǔ)新聞,人工構(gòu)建了一個(gè)中-英-德三語(yǔ)無(wú)泄漏機(jī)器翻譯測(cè)試集。在該測(cè)試集上的測(cè)試結(jié)果顯示:XGLM和OPT在新標(biāo)注測(cè)試集上取得了與公開測(cè)試集上相似的性能,而ChatGPT在英語(yǔ)-德語(yǔ)翻譯上性能出現(xiàn)大幅下降,BLOOMZ更是在四個(gè)測(cè)試方向上都出現(xiàn)性能下降的問(wèn)題(圖3)。這說(shuō)明BLOOMZ在Flores-101上取得很好的表現(xiàn)很可能是數(shù)據(jù)泄漏導(dǎo)致的。

8a4b142c-f3de-11ed-90ce-dac502259ad0.png

圖 3 不同模型在Flores-101測(cè)試集和無(wú)泄漏測(cè)試集上的翻譯表現(xiàn)

05

大語(yǔ)言模型機(jī)器翻譯能力影響因素分析

為了更好地理解大語(yǔ)言模型如何通過(guò)情景學(xué)習(xí)中完成翻譯任務(wù),本文以XGLM為例分析了情景學(xué)習(xí)中諸多因素對(duì)翻譯效果的影響。以下介紹本文在關(guān)于任務(wù)指令和任務(wù)示例兩方面的相關(guān)發(fā)現(xiàn):

1. 與任務(wù)指令相關(guān)的發(fā)現(xiàn):

大語(yǔ)言模型在下游任務(wù)上的良好表現(xiàn)依賴于精心設(shè)計(jì)的指令:本文發(fā)現(xiàn)大語(yǔ)言模型在下游任務(wù)上的表現(xiàn)會(huì)隨著指令內(nèi)容的不同而劇烈變化。并且在不同翻譯方向上,最好的指令也不同(表格2)在這些指令中,“=”取得了最高的平均BLEU分?jǐn)?shù)。而“[SRC]: [TGT]: ”的效果是最差的。這說(shuō)明在情景學(xué)習(xí)中,任務(wù)指令起著十分重要的作用。

即使是不合理的指令也可以引導(dǎo)大語(yǔ)言模型完成翻譯任務(wù):直覺上,人們認(rèn)為大語(yǔ)言模型理解了任務(wù)指令所以能夠完成指定的下游任務(wù)。但是本文發(fā)現(xiàn),在情景學(xué)習(xí)時(shí)使用任務(wù)無(wú)關(guān)的指令,大語(yǔ)言模型依然可以完成目標(biāo)任務(wù)。例如,面對(duì)指令“ can be summarized as ”,模型依然可以生成翻譯而不是生成摘要。這樣的發(fā)現(xiàn)說(shuō)明,以往的研究可能誤解了任務(wù)指令在情景學(xué)習(xí)中的作用。

表格 2 使用不同任務(wù)指令對(duì)翻譯效果的影響

8a561f70-f3de-11ed-90ce-dac502259ad0.png

2. 關(guān)于任務(wù)示例的發(fā)現(xiàn)

根據(jù)語(yǔ)義選擇示例與隨機(jī)選擇示例效果相當(dāng):為了研究任務(wù)示例對(duì)情景學(xué)習(xí)效果的影響,本文對(duì)比了包括隨機(jī)檢索、稀疏檢索、稠密檢索在內(nèi)的多種任務(wù)示例選擇策略(圖4)。實(shí)驗(yàn)結(jié)果表明當(dāng)任務(wù)樣例數(shù)目從1增加到8時(shí),BLEU分?jǐn)?shù)會(huì)顯著提升。但是進(jìn)一步增加樣例數(shù)目,BLEU分?jǐn)?shù)基本變化不大,甚至?xí)_始下降。相比于根據(jù)語(yǔ)義進(jìn)行選擇,隨機(jī)選擇也可以取得相似的效果。并且即使根據(jù)目標(biāo)句進(jìn)行檢索,也沒有展現(xiàn)出明顯的優(yōu)勢(shì)。這些實(shí)驗(yàn)結(jié)果表明,翻譯任務(wù)示例可以幫助大語(yǔ)言模型理解翻譯任務(wù),但是大語(yǔ)言模型可能很難從語(yǔ)義相關(guān)的翻譯示例中直接獲取有幫助的翻譯知識(shí)。

8a5e21b6-f3de-11ed-90ce-dac502259ad0.png

圖4使用不同任務(wù)示例選擇策略對(duì)翻譯效果的影響

翻譯任務(wù)示例幫助大語(yǔ)言模型理解翻譯任務(wù)的核心特征:為了理解翻譯任務(wù)示例如何影響大語(yǔ)言模型理解翻譯任務(wù),本文觀察了大語(yǔ)言模型在不同任務(wù)示例下的翻譯表現(xiàn)(表格3)。當(dāng)使用不匹配的翻譯句對(duì)作為任務(wù)樣例時(shí),大語(yǔ)言模型完全無(wú)法進(jìn)行翻譯。這說(shuō)明模型從翻譯任務(wù)示例中學(xué)習(xí)到需要保證源句和目標(biāo)句語(yǔ)義一致。當(dāng)使用詞級(jí)別或者段落級(jí)別翻譯對(duì)作為翻譯示例時(shí),模型的翻譯質(zhì)量顯著下降,這說(shuō)明任務(wù)樣例的粒度也很重要。當(dāng)使用重復(fù)的翻譯句對(duì)作為翻譯樣例時(shí),模型的翻譯質(zhì)量也會(huì)下降,這說(shuō)明保持任務(wù)示例的多樣性也是保證模型下游任務(wù)性能的必要條件。總體來(lái)說(shuō),這些對(duì)比實(shí)驗(yàn)的結(jié)果說(shuō)明大語(yǔ)言在情景學(xué)習(xí)中,通過(guò)任務(wù)樣例理解了翻譯任務(wù)的核心需求。

表格 3 在給定不同任務(wù)示例時(shí)XGLM的翻譯表現(xiàn)

8a652eac-f3de-11ed-90ce-dac502259ad0.png

使用跨語(yǔ)言任務(wù)示例也可能帶來(lái)翻譯性能提升:本文發(fā)現(xiàn)在機(jī)器翻譯的情景學(xué)習(xí)中,使用不同語(yǔ)言對(duì)的翻譯句對(duì)作為任務(wù)示例并不一定會(huì)導(dǎo)致翻譯質(zhì)量下降。例如,在進(jìn)行德語(yǔ)-英語(yǔ)翻譯時(shí),如果使用跨語(yǔ)言任務(wù)示例會(huì)導(dǎo)致翻譯質(zhì)量下降;而在進(jìn)行漢語(yǔ)-英語(yǔ)翻譯時(shí),使用跨語(yǔ)言任務(wù)示例則可以大幅提升翻譯性能(圖5)。這顯示了跨語(yǔ)言任務(wù)示例在情景學(xué)習(xí)中的潛在用途。

8a6a597c-f3de-11ed-90ce-dac502259ad0.png

圖 5 使用跨語(yǔ)言翻譯任務(wù)示例的效果

在上下文末尾位置的任務(wù)示例對(duì)于大語(yǔ)言模型的行為有著更大的影響:本文發(fā)現(xiàn)使用與目標(biāo)翻譯方向相反的翻譯句對(duì)作為任務(wù)示例時(shí),大語(yǔ)言模型完全無(wú)法進(jìn)行正確的翻譯。利用這種特性,本文考察了在上下文的不同位置的任務(wù)示例對(duì)大語(yǔ)言模型的翻譯行為的影響程度。表格4中的實(shí)驗(yàn)結(jié)果表明,在使用相同數(shù)量的反向任務(wù)示例時(shí),反向任務(wù)示例出現(xiàn)在上下文的末尾位置時(shí),大語(yǔ)言模型的翻譯表現(xiàn)會(huì)更差。這說(shuō)明在末尾位置的任務(wù)示例對(duì)于大語(yǔ)言模型的行為有著更大的影響。

表格 4 反轉(zhuǎn)任務(wù)示例翻譯方向?qū)Ψg效果的影響

8a776126-f3de-11ed-90ce-dac502259ad0.png

06

總結(jié)

本文系統(tǒng)地評(píng)測(cè)了包括ChatGPT在內(nèi)的一系列大語(yǔ)言模型在102種語(yǔ)言,202個(gè)以英文為核心的翻譯方向上的多語(yǔ)言機(jī)器翻譯能力,探究了使用大語(yǔ)言模型進(jìn)行多語(yǔ)言機(jī)器翻譯的優(yōu)勢(shì)與挑戰(zhàn)。我們發(fā)現(xiàn)即使是最強(qiáng)的大語(yǔ)言模型(ChatGPT),仍然在83.33%的翻譯方向上落后于強(qiáng)大的有監(jiān)督基線模型(NLLB)。經(jīng)過(guò)進(jìn)一步的分析實(shí)驗(yàn),我們發(fā)現(xiàn)在機(jī)器翻譯任務(wù)上,大語(yǔ)言模型展現(xiàn)出了一些新的工作模式:例如,在情景學(xué)習(xí)時(shí),任務(wù)指令的語(yǔ)義可以被大語(yǔ)言模型所忽視;使用跨語(yǔ)言任務(wù)示例可以提升低資源機(jī)器翻譯效果。更重要的是,我們發(fā)現(xiàn)BLOOMZ在公開數(shù)據(jù)集上的表現(xiàn)是被高估的,而如何公平地比較不同語(yǔ)言模型的能力將是大語(yǔ)言模型時(shí)代的一個(gè)重要話題





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Opt
    Opt
    +關(guān)注

    關(guān)注

    2

    文章

    18

    瀏覽量

    15142
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    538

    瀏覽量

    10341
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1568

    瀏覽量

    8061

原文標(biāo)題:大語(yǔ)言模型的多語(yǔ)言機(jī)器翻譯能力分析

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    多語(yǔ)言開發(fā)的流程詳解

    現(xiàn)在不少應(yīng)用都是要求有多語(yǔ)言切換的, 使用QT開發(fā)上位機(jī)也同樣需要做多語(yǔ)言功能, 不過(guò)QT是自帶了多語(yǔ)言翻譯功能, 可以很方便的借助原生工具進(jìn)行, 下面就簡(jiǎn)單來(lái)看看
    的頭像 發(fā)表于 11-30 09:08 ?1164次閱讀

    基于機(jī)器翻譯增加的跨語(yǔ)言機(jī)器閱讀理解算法

    近日,阿里云人工智能平臺(tái) PAI 與華南理工大學(xué)朱金輝教授團(tuán)隊(duì)、達(dá)摩院自然語(yǔ)言處理團(tuán)隊(duì)合作在自然語(yǔ)言處理頂級(jí)會(huì)議 EMNLP2023 上發(fā)表基于機(jī)器翻譯增加的跨語(yǔ)言
    的頭像 發(fā)表于 12-12 10:28 ?625次閱讀
    基于<b class='flag-5'>機(jī)器翻譯</b>增加的跨<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>機(jī)器</b>閱讀理解算法

    機(jī)器翻譯三大核心技術(shù)原理 | AI知識(shí)科普

    并不在同一體系下,句法順序有很大程度上的出入,直接拼接起來(lái)的翻譯結(jié)果,效果往往并不理想。于是科研人員提出了第二個(gè)規(guī)則機(jī)器翻譯的方法,引用語(yǔ)言學(xué)的相關(guān)知識(shí),對(duì)源語(yǔ)言的句子進(jìn)行句法的
    發(fā)表于 07-06 10:30

    神經(jīng)機(jī)器翻譯的方法有哪些?

    之間的翻譯,也就是通過(guò)只訓(xùn)練一個(gè)模型就能夠支持在多個(gè)語(yǔ)言之間的翻譯。盡管目前最流行的Transformer模型已經(jīng)大大推動(dòng)了
    發(fā)表于 11-23 12:14

    SoC多語(yǔ)言協(xié)同驗(yàn)證平臺(tái)技術(shù)研究

    SoC基于IP設(shè)計(jì)的特點(diǎn)使驗(yàn)證項(xiàng)目中多語(yǔ)言VIP(Verification IP)協(xié)同驗(yàn)證的需求不斷增加,給驗(yàn)證工作帶來(lái)了很大的挑戰(zhàn)。為了解決多語(yǔ)言VIP在SoC驗(yàn)證環(huán)境靈活重用的問(wèn)題。提出了一種
    發(fā)表于 12-31 09:25 ?12次下載

    谷歌再次發(fā)布BERT的多語(yǔ)言模型和中文模型

    為了評(píng)估這些系統(tǒng),我們使用了XNLI dataset,它是MultiNLI的一個(gè)版本,其中dev集和test集已經(jīng)(由人類)翻譯成15種語(yǔ)言。需要注意的是,訓(xùn)練集是機(jī)器翻譯的(我們使用的是XNLI提供的
    的頭像 發(fā)表于 11-08 09:50 ?6098次閱讀

    阿里宣布完成全球首個(gè)多語(yǔ)言實(shí)時(shí)翻譯的電商直播

    今日,阿里宣布完成全球首個(gè)多語(yǔ)言實(shí)時(shí)翻譯的電商直播,該直播實(shí)現(xiàn)了將中文直播內(nèi)容精準(zhǔn)翻譯成英語(yǔ)、俄語(yǔ)、西班牙語(yǔ)等語(yǔ)言
    的頭像 發(fā)表于 10-27 11:39 ?2003次閱讀

    人工智能翻譯mRASP:可翻譯32種語(yǔ)言

    包括以了解信息或以交流信息為目的的機(jī)器翻譯多語(yǔ)言翻譯機(jī)器翻譯需要面臨的一大技術(shù)現(xiàn)實(shí)。其中,一個(gè)理想的模型是一個(gè)統(tǒng)一的具備多種
    的頭像 發(fā)表于 12-01 14:03 ?3278次閱讀
    人工智能<b class='flag-5'>翻譯</b>mRASP:可<b class='flag-5'>翻譯</b>32種<b class='flag-5'>語(yǔ)言</b>

    多語(yǔ)言翻譯新范式的工作:機(jī)器翻譯界的BERT

    今天給大家介紹EMNLP2020的一篇關(guān)于多語(yǔ)言翻譯新范式的工作multilingual Random Aligned Substitution Pre-training (mRASP)[1],核心
    的頭像 發(fā)表于 03-31 17:24 ?3037次閱讀
    <b class='flag-5'>多語(yǔ)言</b><b class='flag-5'>翻譯</b>新范式的工作:<b class='flag-5'>機(jī)器翻譯</b>界的BERT

    Multilingual多語(yǔ)言預(yù)訓(xùn)練語(yǔ)言模型的套路

    Facebook在Crosslingual language model pretraining(NIPS 2019)一文中提出XLM預(yù)訓(xùn)練多語(yǔ)言模型,整體思路基于BERT,并提出了針對(duì)多語(yǔ)言預(yù)訓(xùn)練的3個(gè)優(yōu)化任務(wù)。后續(xù)很多
    的頭像 發(fā)表于 05-05 15:23 ?3054次閱讀

    多語(yǔ)言任務(wù)在內(nèi)的多種NLP任務(wù)實(shí)現(xiàn)

    WeLM是一個(gè)百億級(jí)別的中文模型,能夠在零樣本以及少樣本的情境下完成包括對(duì)話-采訪、閱讀理解、翻譯、改寫、續(xù)寫、多語(yǔ)言閱讀理解在內(nèi)的多種NLP任務(wù),并具備記憶能力、自我糾正和檢查
    發(fā)表于 10-13 11:52 ?661次閱讀

    借助機(jī)器翻譯來(lái)生成偽視覺-目標(biāo)語(yǔ)言對(duì)進(jìn)行跨語(yǔ)言遷移

    然而之前的基于機(jī)器翻譯的CCR工作大多忽略了這個(gè)問(wèn)題,它們通常使用大規(guī)模的預(yù)訓(xùn)練模型在通過(guò)機(jī)器翻譯得到的大規(guī)模多語(yǔ)言視覺-語(yǔ)言語(yǔ)料庫(kù)上進(jìn)行大
    的頭像 發(fā)表于 10-14 14:59 ?922次閱讀

    基于LLaMA的多語(yǔ)言數(shù)學(xué)推理大模型

    MathOctopus在多語(yǔ)言數(shù)學(xué)推理任務(wù)中,表現(xiàn)出了強(qiáng)大的性能。MathOctopus-7B 可以將LLmMA2-7B在MGSM不同語(yǔ)言上的平均表現(xiàn)從22.6%提升到40.0%。更進(jìn)一步,MathOctopus-13B也獲得了比ChatGPT更好的性能。
    發(fā)表于 11-08 10:37 ?511次閱讀
    基于LLaMA的<b class='flag-5'>多語(yǔ)言</b>數(shù)學(xué)推理大<b class='flag-5'>模型</b>

    語(yǔ)言模型(LLMs)如何處理多語(yǔ)言輸入問(wèn)題

    研究者們提出了一個(gè)框架來(lái)描述LLMs在處理多語(yǔ)言輸入時(shí)的內(nèi)部處理過(guò)程,并探討了模型中是否存在特定于語(yǔ)言的神經(jīng)元。
    發(fā)表于 03-07 14:44 ?698次閱讀
    大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>(LLMs)如何處理<b class='flag-5'>多語(yǔ)言</b>輸入問(wèn)題

    ChatGPT 的多語(yǔ)言支持特點(diǎn)

    )技術(shù)迎來(lái)了巨大的挑戰(zhàn)和機(jī)遇。ChatGPT,作為一個(gè)領(lǐng)先的語(yǔ)言模型,其多語(yǔ)言支持的特點(diǎn)成為了它在眾多應(yīng)用場(chǎng)景中不可或缺的優(yōu)勢(shì)。 1. 多語(yǔ)言理解
    的頭像 發(fā)表于 10-25 17:30 ?903次閱讀
    主站蜘蛛池模板: 天天躁夜夜躁狠狠躁躁 | 黄色网址在线播放 | 亚洲三级免费 | 久久ww| 超碰v | 免费啪视频在线观看免费的 | 欧美1| 午夜久久久久久 | 天天射干 | 久久男人精品 | 久久激情五月 | 网友偷自拍原创区 | 立即播放免费毛片一级 | 一区二区三区欧美在线 | 中文字幕不卡一区 | 色五阁| www在线小视频免费 www资源 | 99久久免费中文字幕精品 | 国产20岁美女一级毛片 | 五月婷婷激情综合网 | 天天爽天天狼久久久综合 | 日本黄色免费网址 | 色婷婷久久久swag精品 | 成年女人毛片 | 1515hh四虎免费观com | 色网站欧美| 天天做天天爱夜夜爽毛片毛片 | www.xxx.日本| 亚洲一区二区三区在线网站 | 欧美高清一区 | 国产精品成人va在线观看入口 | 在线免费观看视频黄 | 日韩欧美在线中文字幕 | 五月国产综合视频在线观看 | 国产精品成人免费观看 | 色婷婷色丁香 | 免费一级大毛片a一观看不卡 | 精品色图 | 日日爽夜夜 | 男人j进入女人免费视频 | 深夜视频免费在线观看 |