在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于醫(yī)學(xué)知識(shí)增強(qiáng)的基礎(chǔ)模型預(yù)訓(xùn)練方法

CVer ? 來(lái)源:CVer ? 2023-07-07 11:10 ? 次閱讀

近年來(lái),基于大數(shù)據(jù)預(yù)訓(xùn)練的多模態(tài)基礎(chǔ)模型 (Foundation Model) 在自然語(yǔ)言理解和視覺(jué)感知方面展現(xiàn)出了前所未有的進(jìn)展,在各領(lǐng)域中受到了廣泛關(guān)注。在醫(yī)療領(lǐng)域中,由于其任務(wù)對(duì)領(lǐng)域?qū)I(yè)知識(shí)的高度依賴和其本身細(xì)粒度的特征,通用基礎(chǔ)模型在醫(yī)療領(lǐng)域的應(yīng)用十分有限。因此,如何將醫(yī)療知識(shí)注入模型,提高基礎(chǔ)模型在具體診療任務(wù)上的準(zhǔn)確度與可靠性,是當(dāng)前醫(yī)學(xué)人工智能研究領(lǐng)域的熱點(diǎn)。 在此背景之下,上海交通大學(xué)與上海人工智能實(shí)驗(yàn)室聯(lián)合團(tuán)隊(duì)探索了基于醫(yī)學(xué)知識(shí)增強(qiáng)的基礎(chǔ)模型預(yù)訓(xùn)練方法,發(fā)布了首個(gè)胸部 X-ray 的基礎(chǔ)模型,即 KAD(Knowledge-enhanced Auto Diagnosis Model)。該模型通過(guò)在大規(guī)模醫(yī)學(xué)影像與放射報(bào)告數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,通過(guò)文本編碼器對(duì)高質(zhì)量醫(yī)療知識(shí)圖譜進(jìn)行隱空間嵌入,利用視覺(jué) - 語(yǔ)言模型聯(lián)合訓(xùn)練實(shí)現(xiàn)了知識(shí)增強(qiáng)的表征學(xué)習(xí)。在不需要任何額外標(biāo)注情況下,KAD 模型即可直接應(yīng)用于任意胸片相關(guān)疾病的診斷,為開(kāi)發(fā)人工智能輔助診斷的基礎(chǔ)模型提供了一條切實(shí)可行的技術(shù)路線。

KAD 具有零樣本(zero-shot)診斷能力,無(wú)需下游任務(wù)微調(diào),展現(xiàn)出與專業(yè)醫(yī)生相當(dāng)?shù)木龋?/p>

KAD 具有開(kāi)放疾病診斷(open-set diagosis)能力,可應(yīng)用于胸片相關(guān)的任意疾病診斷;

KAD 具有疾病定位能力,為模型預(yù)測(cè)提供可解釋性。

研究論文《Knowledge-enhanced Visual-Language Pre-training on Chest Radiology Images》已被知名國(guó)際期刊《自然 - 通訊》(Nature Communications)接收。論文作者為張小嫚、吳超逸、張婭教授,謝偉迪教授(通訊),王延峰教授(通訊)。

論文鏈接:https://arxiv.org/pdf/2302.14042.pdf

代碼模型鏈接:https://github.com/xiaoman-zhang/KAD

模型介紹 KAD 模型的核心是利用醫(yī)學(xué)先驗(yàn)知識(shí)引導(dǎo)基礎(chǔ)模型預(yù)訓(xùn)練,第一階段,該研究利用醫(yī)學(xué)知識(shí)圖譜訓(xùn)練一個(gè)文本知識(shí)編碼器,對(duì)醫(yī)學(xué)知識(shí)庫(kù)在隱空間進(jìn)行建模;第二階段,該研究提出放射報(bào)告中提取醫(yī)學(xué)實(shí)體和實(shí)體間關(guān)系,借助已訓(xùn)練的知識(shí)編碼器來(lái)指導(dǎo)圖像與文本對(duì)的視覺(jué)表征學(xué)習(xí),最終實(shí)現(xiàn)了知識(shí)增強(qiáng)的模型預(yù)訓(xùn)練。具體流程如圖 1 所示。

c197efd0-1c16-11ee-962d-dac502259ad0.png

圖 1:KAD 的模型架構(gòu) 知識(shí)編碼器 知識(shí)編碼器的核心是在特征空間隱式地建立醫(yī)學(xué)實(shí)體之間的關(guān)系。具體來(lái)說(shuō),該研究將統(tǒng)一醫(yī)學(xué)語(yǔ)言系統(tǒng) (Unified Medical Language System,UMLS) 作為醫(yī)學(xué)知識(shí)庫(kù),如圖 1a 所示;通過(guò)對(duì)比學(xué)習(xí)訓(xùn)練文本編碼器,將醫(yī)學(xué)知識(shí)注入模型,如圖 1b 所示。 知識(shí)引導(dǎo)的視覺(jué)表征學(xué)習(xí) 知識(shí)編碼器訓(xùn)練完成后,模型在文本特征空間已經(jīng)建立了醫(yī)學(xué)實(shí)體之間的關(guān)系,即可用于引導(dǎo)視覺(jué)表征學(xué)習(xí)。具體來(lái)說(shuō),如圖 1c 所示,基于胸片 - 報(bào)告對(duì)的數(shù)據(jù),首先進(jìn)行實(shí)體提取,得到常見(jiàn)疾病的集合及其標(biāo)簽,該研究嘗試了三種方法:基于 UMLS 啟發(fā)式規(guī)則的實(shí)體提取、基于報(bào)告結(jié)構(gòu)化工具 RadGraph 的實(shí)體提取以及基于 ChatGPT 的實(shí)體提取;在模型層面,該研究提出了基于 Transformer 架構(gòu)的疾病查詢網(wǎng)絡(luò)(Disease Query Networks),以疾病名稱作為查詢 (query) 輸入,關(guān)注 (attend) 視覺(jué)特征以獲得模型預(yù)測(cè)結(jié)果;在模型訓(xùn)練過(guò)程中,該研究聯(lián)合優(yōu)化圖像 - 文本對(duì)比學(xué)習(xí)和疾病查詢網(wǎng)絡(luò)預(yù)測(cè)的多標(biāo)簽分類損失。 經(jīng)過(guò)上述兩階段的訓(xùn)練,在模型使用階段,如圖 1d 所示,給定一張圖像以及查詢的疾病名稱,分別輸入圖像編碼器和知識(shí)編碼器,經(jīng)過(guò)疾病查詢網(wǎng)絡(luò),即可得到查詢疾病的預(yù)測(cè)。同時(shí)可以通過(guò)疾病查詢網(wǎng)絡(luò)得到注意力圖對(duì)病灶進(jìn)行定位,增強(qiáng)模型的可解釋性。 實(shí)驗(yàn)結(jié)果 研究團(tuán)隊(duì)將僅在 MIMIC-CXR [1] 上使用圖像和報(bào)告預(yù)訓(xùn)練的 KAD 模型,在多個(gè)具有不同數(shù)據(jù)分布的公開(kāi)數(shù)據(jù)集上進(jìn)行了系統(tǒng)性評(píng)測(cè),包括 CheXpert [2], PadChest [3], NIH ChestX-ray [4] 和 CheXDet10 [5]。MIMIC-CXR 數(shù)據(jù)收集于貝斯以色列女執(zhí)事醫(yī)療中心(Beth Israel Deaconess Medical Center,BIDMC)是,CheXpert 數(shù)據(jù)收集于美國(guó)斯坦福醫(yī)院(Stanford Hospital),PadChest 數(shù)據(jù)收集于西班牙圣胡醫(yī)院(San Juan Hospital),NIH ChestX-ray 和 CheXDet10 數(shù)據(jù)來(lái)自于美國(guó)國(guó)立衛(wèi)生研究院(National Institutes of Health)臨床 PACS 數(shù)據(jù)庫(kù)。 (1) KAD 零樣本診斷能力與專業(yè)放射科醫(yī)生精度相當(dāng) 如圖 2 所示,該研究將預(yù)訓(xùn)練的 KAD 模型在 CheXpert 數(shù)據(jù)上進(jìn)行評(píng)測(cè),在其中的五類疾病診斷任務(wù)與放射科醫(yī)生進(jìn)行了比較,圖中 Radiologists 表示三名放射科醫(yī)生的平均結(jié)果。KAD 在五類疾病診斷任務(wù)上的平均 MCC 超過(guò)了 Radiologists,且在其中三類疾病的診斷結(jié)果顯著優(yōu)于放射科醫(yī)生,肺不張 atelectasis (KAD 0.613 (95% CI 0.567, 0.659) vs. Radiologists 0.548);肺水腫 edema (KAD 0.666 (95% CI 0.608, 0.724) vs. Radiologists 0.507);胸腔積液 pleural effusion (KAD 0.702 (95% CI 0.653, 0.751) vs. Radiologists 0.548)。該結(jié)果證實(shí)了基于知識(shí)增強(qiáng)的模型預(yù)訓(xùn)練的有效性。

c1a3f3c0-1c16-11ee-962d-dac502259ad0.png

圖 2:KAD 在 CheXpert 數(shù)據(jù)集上與基線模型以及放射科醫(yī)生的比較 (2) KAD 零樣本診斷能力與全監(jiān)督模型相當(dāng),支持開(kāi)放集疾病診斷 如圖 3a 所示,在 PadChest 上的零樣本診斷性能大幅度超越此前所有多模態(tài)預(yù)訓(xùn)練模型(例如 Microsoft 發(fā)布的 BioVIL [6],Stanford 發(fā)布的 CheXzero [7]),與全監(jiān)督模型 (CheXNet [8]) 相當(dāng)。此外,全監(jiān)督的模型的應(yīng)用范圍受限于封閉的訓(xùn)練類別集合,而 KAD 可以支持任意的疾病輸入,在 PadChest 的 177 個(gè)未見(jiàn)類別的測(cè)試中,有 31 類 AUC 達(dá)到 0.900 以上,111 類 AUC 達(dá)到 0.700 以上,如圖 3b 所示。

c209d7c6-1c16-11ee-962d-dac502259ad0.png

圖 3:KAD 在 PadChest 數(shù)據(jù)集上與基線模型的比較 (3) KAD 具有疾病定位能力,為模型預(yù)測(cè)提供可解釋性 除了自動(dòng)診斷能力,可解釋性在人工智能輔助醫(yī)療的作用同樣關(guān)鍵,能夠有效幫助臨床醫(yī)生理解人工智能算法的判斷依據(jù)。在 ChestXDet10 數(shù)據(jù)集上對(duì) KAD 的定位能力進(jìn)行了定量分析與定性分析。如圖 4 所示,KAD 的定位能力顯著優(yōu)于基線模型。圖 5 中,紅色方框?yàn)榉派淇漆t(yī)生提供的標(biāo)注,高亮區(qū)域?yàn)槟P偷臒崃D,從中可以看出模型所關(guān)注的區(qū)域往往能與醫(yī)生標(biāo)注區(qū)域?qū)?yīng)上,隨著輸入圖像的分辨率增加,模型的定位能力也顯著增強(qiáng)。 需要強(qiáng)調(diào) 這是模型設(shè)計(jì)的優(yōu)勢(shì),是在無(wú)需人工病灶區(qū)域標(biāo)注情況下獲得的副產(chǎn)品。

c2850c2a-1c16-11ee-962d-dac502259ad0.png

圖 4: KAD 在 ChestXDet10 數(shù)據(jù)集上與基線模型的比較

圖 5:KAD 的定位結(jié)果可視化 總結(jié) 醫(yī)療領(lǐng)域的專業(yè)性,導(dǎo)致通用基礎(chǔ)模型在真實(shí)臨床診療場(chǎng)景下的應(yīng)用十分受限。KAD 模型的提出為基于知識(shí)增強(qiáng)的基礎(chǔ)模型預(yù)訓(xùn)練提供了切實(shí)可行的解決方案。KAD 的訓(xùn)練框架只需要影像 - 報(bào)告數(shù)據(jù),不依賴于人工注釋,在下游胸部 X-ray 診斷任務(wù)上,無(wú)需任何監(jiān)督微調(diào),即達(dá)到與專業(yè)放射科醫(yī)生相當(dāng)?shù)木龋恢С珠_(kāi)放集疾病診斷任務(wù),同時(shí)以注意力圖形式提供對(duì)病灶的位置定位,增強(qiáng)模型的可解釋性。值得注意的是,該研究提出的基于知識(shí)增強(qiáng)的表征學(xué)習(xí)方法不局限于胸部 X-ray,期待其能夠進(jìn)一步遷移到醫(yī)療中不同的器官、模態(tài)上,促進(jìn)醫(yī)療基礎(chǔ)模型在臨床的應(yīng)用和落地。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3780

    瀏覽量

    137316
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3499

    瀏覽量

    50077
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    8952

    瀏覽量

    139605

原文標(biāo)題:Nature子刊!上海交大&上海AI Lab提出胸部X-ray疾病診斷基礎(chǔ)模型

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

    ,在實(shí)際應(yīng)用場(chǎng)景中效果不好。為了解決這個(gè)問(wèn)題,將知識(shí)注入到PLMs中已經(jīng)成為一個(gè)非常活躍的研究領(lǐng)域。本次分享將介紹三篇知識(shí)增強(qiáng)預(yù)訓(xùn)練語(yǔ)言
    的頭像 發(fā)表于 04-02 17:21 ?1w次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型預(yù)訓(xùn)練

    大語(yǔ)言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無(wú)需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)訓(xùn)練數(shù)據(jù)的需求也相
    發(fā)表于 05-07 17:10

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?
    發(fā)表于 09-06 09:52

    微軟在ICML 2019上提出了一個(gè)全新的通用預(yù)訓(xùn)練方法MASS

    專門針對(duì)序列到序列的自然語(yǔ)言生成任務(wù),微軟亞洲研究院提出了新的預(yù)訓(xùn)練方法:屏蔽序列到序列預(yù)訓(xùn)練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發(fā)表于 05-11 09:19 ?3682次閱讀
    微軟在ICML 2019上提出了一個(gè)全新的通用<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練方法</b>MASS

    新的預(yù)訓(xùn)練方法——MASS!MASS預(yù)訓(xùn)練幾大優(yōu)勢(shì)!

    專門針對(duì)序列到序列的自然語(yǔ)言生成任務(wù),微軟亞洲研究院提出了新的預(yù)訓(xùn)練方法:屏蔽序列到序列預(yù)訓(xùn)練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發(fā)表于 05-11 09:34 ?7493次閱讀
    新的<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練方法</b>——MASS!MASS<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>幾大優(yōu)勢(shì)!

    檢索增強(qiáng)型語(yǔ)言表征模型預(yù)訓(xùn)練

    如果有一種預(yù)訓(xùn)練方法可以 顯式地 獲取知識(shí),如引用額外的大型外部文本語(yǔ)料庫(kù),在不增加模型大小或復(fù)雜性的情況下獲得準(zhǔn)確結(jié)果,會(huì)怎么樣?
    的頭像 發(fā)表于 09-27 14:50 ?2229次閱讀

    一種側(cè)重于學(xué)習(xí)情感特征的預(yù)訓(xùn)練方法

    transformers編碼表示)的基礎(chǔ)上,提岀了一種側(cè)重學(xué)習(xí)情感特征的預(yù)訓(xùn)練方法。在目標(biāo)領(lǐng)域的預(yù)練階段,利用情感詞典改進(jìn)了BERT的預(yù)訓(xùn)練
    發(fā)表于 04-13 11:40 ?4次下載
    一種側(cè)重于學(xué)習(xí)情感特征的<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練方法</b>

    如何向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型中融入知識(shí)

    本文關(guān)注于向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型(如RoBERTa、BERT等)中融入知識(shí)
    的頭像 發(fā)表于 06-23 15:07 ?4627次閱讀
    如何向大規(guī)模<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>語(yǔ)言<b class='flag-5'>模型</b>中融入<b class='flag-5'>知識(shí)</b>?

    利用視覺(jué)語(yǔ)言模型對(duì)檢測(cè)器進(jìn)行預(yù)訓(xùn)練

    預(yù)訓(xùn)練通常被用于自然語(yǔ)言處理以及計(jì)算機(jī)視覺(jué)領(lǐng)域,以增強(qiáng)主干網(wǎng)絡(luò)的特征提取能力,達(dá)到加速訓(xùn)練和提高模型泛化性能的目的。該
    的頭像 發(fā)表于 08-08 15:33 ?1677次閱讀

    介紹幾篇EMNLP&apos;22的語(yǔ)言模型訓(xùn)練方法優(yōu)化工作

    來(lái)自:圓圓的算法筆記 今天給大家介紹3篇EMNLP 2022中語(yǔ)言模型訓(xùn)練方法優(yōu)化的工作,這3篇工作分別是: 針對(duì)檢索優(yōu)化語(yǔ)言模型 :優(yōu)化語(yǔ)言模型訓(xùn)
    的頭像 發(fā)表于 12-22 16:14 ?1213次閱讀

    基礎(chǔ)模型自監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

    大型語(yǔ)言模型如 ChatGPT 的成功彰顯了海量數(shù)據(jù)在捕捉語(yǔ)言模式和知識(shí)方面的巨大潛力,這也推動(dòng)了基于大量數(shù)據(jù)的視覺(jué)模型研究。在計(jì)算視覺(jué)領(lǐng)域,標(biāo)注數(shù)據(jù)通常難以獲取,自監(jiān)督學(xué)習(xí)成為預(yù)
    的頭像 發(fā)表于 07-24 16:55 ?828次閱讀
    基礎(chǔ)<b class='flag-5'>模型</b>自監(jiān)督<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

    基于生成模型預(yù)訓(xùn)練方法

    with Deep Generative Models,我認(rèn)為是個(gè)挺強(qiáng)挺有趣的自監(jiān)督方面的工作。DreamTeacher 用于從預(yù)訓(xùn)練的生成網(wǎng)絡(luò)向目標(biāo)圖像 Backbone 進(jìn)行知識(shí)蒸餾,作為一種通用的
    的頭像 發(fā)表于 08-11 09:38 ?1544次閱讀
    基于生成<b class='flag-5'>模型</b>的<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練方法</b>

    混合專家模型 (MoE)核心組件和訓(xùn)練方法介紹

    ) 的 Transformer 模型在開(kāi)源人工智能社區(qū)引起了廣泛關(guān)注。在本篇博文中,我們將深入探討 MoEs 的核心組件、訓(xùn)練方法,以及在推理過(guò)程中需要考量的各種因素。 讓我們開(kāi)始吧! 簡(jiǎn)短總結(jié) 混合專家模型 (MoEs
    的頭像 發(fā)表于 01-13 09:37 ?2078次閱讀
    混合專家<b class='flag-5'>模型</b> (MoE)核心組件和<b class='flag-5'>訓(xùn)練方法</b>介紹

    大語(yǔ)言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語(yǔ)言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過(guò)在海量無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使模型學(xué)習(xí)到語(yǔ)言的通用
    的頭像 發(fā)表于 07-11 10:11 ?910次閱讀

    ai大模型訓(xùn)練方法有哪些?

    AI大模型訓(xùn)練方法是一個(gè)復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai大模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強(qiáng) 數(shù)據(jù)清洗:去除噪聲和不完整的數(shù)據(jù)。 數(shù)據(jù)標(biāo)準(zhǔn)化:
    的頭像 發(fā)表于 07-16 10:11 ?3017次閱讀
    主站蜘蛛池模板: 亚洲美女黄视频 | 四虎永久精品视频在线 | 好男人www社区影视在线 | 免费一级大片 | 欧美精品 在线播放 | 色综合久久综合欧美综合网 | 三级网址在线播放 | 国产色视频网站免费观看 | 麦克斯奥特曼免费观看 | 亚洲一级毛片免费观看 | 午夜毛片不卡高清免费 | 豆国产97在线 | 欧洲 | 国产中日韩一区二区三区 | 亚洲四虎在线 | 午夜视频免费在线播放 | 欧美一区二区精品 | 色在线免费视频 | www射射一区 | 日韩免费高清一级毛片在线 | 好爽毛片一区二区三区四 | 韩国a级床戏大尺度在线观看 | 乱码精品一区二区三区 | 国产欧美亚洲精品 | 91成人免费 | 欧美三级图片 | 色鬼久久 | 欧美成人一区二区三区在线视频 | 未成人禁止视频高清在线观看 | 久久riav国产精品 | 18videosex欧美69 | 99久久伊人 | 久久99热久久精品99 | 日本免费xxxx色视频 | 国产一级鲁丝片 | 天天爽夜夜爽 | 欧美性黑人极品1819hd | 日本黄色片在线播放 | 国产黄色片一级 | 欧美黑人性受xxxx喷水 | 757一本到午夜宫 | 韩国三级理在线视频观看 |