在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Harvard FairSeg:第一個(gè)用于醫(yī)學(xué)分割的公平性數(shù)據(jù)集

CVer ? 來源:CVer ? 2024-01-25 16:52 ? 次閱讀

近年來,人工智能模型的公平性問題受到了越來越多的關(guān)注,尤其是在醫(yī)學(xué)領(lǐng)域,因?yàn)獒t(yī)學(xué)模型的公平性對(duì)人們的健康和生命至關(guān)重要。高質(zhì)量的醫(yī)學(xué)公平性數(shù)據(jù)集對(duì)促進(jìn)公平學(xué)習(xí)研究非常必要。現(xiàn)有的醫(yī)學(xué)公平性數(shù)據(jù)集都是針對(duì)分類任務(wù)的,而沒有可用于醫(yī)學(xué)分割的公平性數(shù)據(jù)集,但是醫(yī)學(xué)分割與分類一樣都是非常重要的醫(yī)學(xué)AI任務(wù),在某些場(chǎng)景分割甚至優(yōu)于分類, 因?yàn)樗軌蛱峁┐R床醫(yī)生評(píng)估的器官異常的詳細(xì)空間信息。在本文中,我們提出了第一個(gè)用于醫(yī)學(xué)分割的公平性數(shù)據(jù)集,名為Harvard-FairSeg,包含10,000個(gè)患者樣本。此外,我們提出了一種公平的誤差界限縮放方法,通過使用最新的Segment Anything Model(SAM),以每個(gè)身份組的上界誤差為基礎(chǔ)重新加權(quán)損失函數(shù)。為了促進(jìn)公平比較,我們利用了一種新穎的評(píng)估公平性在分割任務(wù)的標(biāo)準(zhǔn),叫做equity-scaled segmentation performance。通過全面的實(shí)驗(yàn),我們證明了我們的方法要么具有優(yōu)越性,要么與最先進(jìn)的公平學(xué)習(xí)模型在公平性能上相當(dāng)。

在這里和大家分享一波我們ICLR 2024中稿的工作 “Harvard FairSeg: A Large-Scale Medical Image Segmentation Dataset for Fairness Learning Using Segment Anything Model with Fair Error-Bound Scaling”

在本次工作中, 我們提出了第一個(gè)研究醫(yī)療分割算法的公平性的大型數(shù)據(jù)集 并且提出了方法嘗試提升不同組別的公平性 (讓不同組別的準(zhǔn)確率接近)。

0116aff8-bb44-11ee-8b88-92fbcf53809c.png

文章: https://arxiv.org/pdf/2311.02189 代碼地址: https://github.com/Harvard-Ophthalmology-AI-Lab/Harvard-FairSeg 數(shù)據(jù)集網(wǎng)站: https://ophai.hms.harvard.edu/datasets/harvard-fairseg10k/ 數(shù)據(jù)集下載鏈接: https://drive.google.com/drive/u/1/folders/1tyhEhYHR88gFkVzLkJI4gE1BoOHoHdWZ Harvard-Ophthalmology-AI-Lab 致力于提供高質(zhì)量公平性數(shù)據(jù)集 更多公平性數(shù)據(jù)集 請(qǐng)點(diǎn)擊lab的數(shù)據(jù)集主頁:https://ophai.hms.harvard.edu/datasets/

背景:

隨著人工智能在醫(yī)學(xué)影像診斷中的應(yīng)用日益增多,確保這些深度學(xué)習(xí)模型的公平性并深入探究在復(fù)雜的現(xiàn)實(shí)世界情境中可能出現(xiàn)的隱藏偏見變得至關(guān)重要。遺憾的是,機(jī)器學(xué)習(xí)模型可能無意中包含了與醫(yī)學(xué)圖像相關(guān)的敏感屬性(如種族和性別),這可能影響模型區(qū)分異常的能力。這一挑戰(zhàn)促使人們?cè)跈C(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺領(lǐng)域進(jìn)行了大量的努力,以調(diào)查偏見、倡導(dǎo)公平性,并推出新的數(shù)據(jù)集。

01315e5c-bb44-11ee-8b88-92fbcf53809c.png

截至目前,只有少數(shù)公共公平性數(shù)據(jù)集被提出用于研究公平性分類,主要的是,這些數(shù)據(jù)集中的大多數(shù)都只是表格數(shù)據(jù),因此不適合開發(fā)需要影像數(shù)據(jù)的公平計(jì)算機(jī)視覺模型。對(duì)計(jì)算機(jī)視覺公平性的缺失尤其令人關(guān)注,特別是考慮到依賴此類數(shù)據(jù)的深度學(xué)習(xí)模型的影響力日益增強(qiáng)。在醫(yī)學(xué)影像領(lǐng)域,只有少數(shù)數(shù)據(jù)集被用于公平學(xué)習(xí)。然而,這些數(shù)據(jù)集大多沒有專門為公平性建模而設(shè)計(jì)(目前僅有的醫(yī)療圖像數(shù)據(jù)集我們列在了table 1)。它們通常只包含有限范圍的敏感屬性,如年齡、性別和種族,因此限制了檢查不同人群公平性的范圍。此外,它們也缺乏全面的基準(zhǔn)測(cè)試框架。更重要的是,盡管這些先前的數(shù)據(jù)集和方法為醫(yī)學(xué)分類提供了解決方案,但它們忽視了醫(yī)學(xué)分割這一更為關(guān)鍵的領(lǐng)域。

然而,為公平學(xué)習(xí)創(chuàng)建這樣一個(gè)新的大型數(shù)據(jù)集面臨著多重挑戰(zhàn)。首先,缺乏大規(guī)模、高質(zhì)量的醫(yī)學(xué)數(shù)據(jù)以及手工像素級(jí)注釋,這些都需要大量勞動(dòng)力和時(shí)間來收集和標(biāo)注。其次,現(xiàn)有提升公平性的方法主要是為醫(yī)學(xué)分類設(shè)計(jì)的,當(dāng)適應(yīng)分割任務(wù)時(shí),其性能仍然存疑。同樣不確定的是,分割任務(wù)中存在的不公平是否可以通過算法有效地緩解。最后,評(píng)估醫(yī)學(xué)分割模型公平性的評(píng)判標(biāo)準(zhǔn) (evaluation metric)仍然難以捉摸。此外,將現(xiàn)有為分類設(shè)計(jì)的公平性指標(biāo)適應(yīng)到分割任務(wù)上也可能存在挑戰(zhàn)。

013eb6d8-bb44-11ee-8b88-92fbcf53809c.png

為了解決這些挑戰(zhàn),我們提出了第一個(gè)大規(guī)模醫(yī)學(xué)分割領(lǐng)域的公平性數(shù)據(jù)集, Harvard-FairSeg。該數(shù)據(jù)集旨在用于研究公平性的cup-disc segmentation,從SLO眼底圖像中診斷青光眼,如圖1所示。青光眼是全球不可逆盲目的主要原因之一,在40-80歲年齡段的患病率為3.54%,大約影響了8000萬人。盡管其重要性,早期青光眼通常無癥狀,這強(qiáng)調(diào)了及時(shí)進(jìn)行專業(yè)檢查的必要性。對(duì)cup-disc的準(zhǔn)確分割對(duì)于醫(yī)療專業(yè)人員早期診斷青光眼至關(guān)重要。值得注意的是,與其他群體相比,黑人患青光眼的風(fēng)險(xiǎn)加倍,然而這一人群的分割準(zhǔn)確率通常最低。這激勵(lì)我們整理一個(gè)數(shù)據(jù)集,以研究分割公平性問題我們提出的Harvard-FairSeg數(shù)據(jù)集的亮點(diǎn)如下:(1)醫(yī)學(xué)分割領(lǐng)域第一個(gè)公平性學(xué)習(xí)數(shù)據(jù)集。該數(shù)據(jù)集提供了SLO眼底成像數(shù)據(jù)的cup-disc分割;

(2)該數(shù)據(jù)集配備了從現(xiàn)實(shí)醫(yī)院臨床情景中收集的六種敏感屬性,用于研究公平性學(xué)習(xí)問題;

(3)我們?cè)谖覀兲岢龅男聰?shù)據(jù)集上評(píng)估了多個(gè)SOTA公平性學(xué)習(xí)算法,并使用包括Dice和IoU在內(nèi)的多種分割性能指標(biāo)進(jìn)行了評(píng)估。

如何獲得大量的高質(zhì)量分割標(biāo)注:

本研究中測(cè)試的對(duì)象來自于一家大型學(xué)術(shù)眼科醫(yī)院,時(shí)間跨度為2010年至2021年。本研究將發(fā)布三種類型的數(shù)據(jù):(1)SLO眼底掃描圖像;(2)患者人口統(tǒng)計(jì)信息 包含了六種不同的屬性;(3)由OCT機(jī)器自動(dòng)標(biāo)注以及由專業(yè)醫(yī)療從業(yè)者手工評(píng)級(jí)的像素級(jí)標(biāo)注如何獲得大量高質(zhì)量分割標(biāo)注一直是醫(yī)療分割的很重要分體。

我們新穎的通過把 cup 和disc區(qū)域的像素標(biāo)注首先從OCT機(jī)器獲得,其中disc邊界在3D OCT中被分割為Bruch’s膜開口,由OCT制造商軟件實(shí)現(xiàn),cup邊界被檢測(cè)為內(nèi)限膜(ILM)與導(dǎo)致最小表面積的平面之間的交叉點(diǎn)和disc邊界在平面上的交叉點(diǎn)。大致上,cup邊界可以被認(rèn)為是ILM上最靠近視盤邊界的位置,即被定義為Bruch’s膜開口。由于Bruch’s膜開口和內(nèi)限膜與背景之間的高對(duì)比度,它們很容易被分割。因此因?yàn)镺CT制造商軟件利用了3D信息,利用oct機(jī)器對(duì)cup和disc的分割通常是可靠的。相比之下,眼底照片上的2Dcup和disc分割可能因包括衰減的成像信號(hào)和血管阻塞等各種因素而具有挑戰(zhàn)性。然而,由于OCT機(jī)器相當(dāng)昂貴且在初級(jí)保健中較少見,因此我們提議將這些注釋從3D OCT遷移到2D SLO眼底圖片,以在初級(jí)保健領(lǐng)域的早期青光眼篩查中產(chǎn)生更廣泛的影響。具體來說,我們首先使用NiftyReg工具將SLO眼底圖像與OCT衍生的眼底圖像(OCT眼底)對(duì)齊隨后,將NiftyReg的仿射度量應(yīng)用于OCT眼底圖像的cup-disc掩碼,使其與SLO眼底圖像對(duì)齊。這一過程有效地產(chǎn)生了大量高質(zhì)量的SLO眼底掩碼注釋,避免了勞動(dòng)密集型的手工像素標(biāo)注過程。值得注意的是,這種medical registration的操作在現(xiàn)實(shí)世界場(chǎng)景中展示了相當(dāng)高的精確度,我們的經(jīng)驗(yàn)觀察表明,medical registration成功率大約為80%。在這一自動(dòng)化過程之后,生成的掩碼經(jīng)過嚴(yán)格審查,并由五名醫(yī)學(xué)專業(yè)人員小組手動(dòng)評(píng)級(jí),以確保cup-disc區(qū)域的精確標(biāo)注,并排除位置錯(cuò)誤的cup或disc掩碼和registration失敗的情況。

數(shù)據(jù)特征:我們的Harvard-FairSeg數(shù)據(jù)集包含來自10,000名受試者的10,000個(gè)樣本。我們將數(shù)據(jù)分為包含8,000個(gè)樣本的訓(xùn)練集和包含2,000個(gè)樣本的測(cè)試集。數(shù)據(jù)集的平均年齡為60.3 ± 16.5歲。在該數(shù)據(jù)集中,包含了六個(gè)敏感屬性,用于深入的公平性學(xué)習(xí)研究,這些屬性包括年齡、性別、種族、民族、首選語言和婚姻狀況。在種族人口統(tǒng)計(jì)學(xué)上,數(shù)據(jù)集包括來自三個(gè)主要群體的樣本:亞洲人,有919個(gè)樣本;黑人,有1,473個(gè)樣本;白人,有7,608個(gè)樣本。在性別方面,女性占受試者的58.5%,其余為男性。民族分布以90.6%的非西班牙裔,3.7%的西班牙裔和5.7%的未說明。在首選語言方面,92.4%的受試者首選英語,1.5%首選西班牙語,1%首選其他語言,5.1%未確定。從婚姻狀況的角度來看,57.7%的人已婚或有伴侶,27.1%是單身,6.8%經(jīng)歷過離婚,0.8%法律上分居,5.2%是喪偶,2.4%未說明。

我們的提升公平性的方法Fair Error-Bound Scaling:

我們假設(shè)獲得較小整體Dice損失的樣本組意味著模型對(duì)該特定組的樣本學(xué)習(xí)得更好,因此,這些樣本組需要較小的權(quán)重。相反,整體Dice損失較大的樣本組(即難處理的案例)可能導(dǎo)致更差的泛化能力并引起更多的算法偏差,這需要為這些樣本組分配較大的學(xué)習(xí)權(quán)重。因此,我們提出了一種新的公平誤差界限縮放方法,用于在訓(xùn)練過程中縮放不同人群組之間的Dice損失。我們首先定義預(yù)測(cè)像素得分和真實(shí)目標(biāo)之間的標(biāo)準(zhǔn)Dice損失表示為:

01552eae-bb44-11ee-8b88-92fbcf53809c.png



為了確保在不同屬性組之間的公平性,我們使用一種新穎的公平誤差界限縮放機(jī)制來增強(qiáng)上述Dice損失。損失函數(shù):

01655b3a-bb44-11ee-8b88-92fbcf53809c.png

017564f8-bb44-11ee-8b88-92fbcf53809c.png


通過用這些屬性權(quán)重調(diào)節(jié)預(yù)測(cè)像素得分,這種損失確保不同屬性組在模型訓(xùn)練過程中平衡地貢獻(xiàn)于損失函數(shù),從而促進(jìn)公平性。

用于評(píng)估公平分割準(zhǔn)確性的metric:傳統(tǒng)的分割度量如Dice和IoU提供了對(duì)分割性能的洞察,但可能無法有效捕捉不同群體間的公平性。考慮到這一點(diǎn),我們的目標(biāo)是提出一種新的metric,既包括分割的準(zhǔn)確性,也包括在不同群體間的公平性。這就產(chǎn)生了一個(gè)全面的視角,確保模型既準(zhǔn)確又公平。

為了納入群體公平性,我們需要單獨(dú)評(píng)估群體的準(zhǔn)確性。我們首先定義一個(gè)分割度量準(zhǔn)確率差異?,如下所示:

017f9504-bb44-11ee-8b88-92fbcf53809c.png

這里,?度量了每個(gè)群體的準(zhǔn)確性與總體準(zhǔn)確性的總體偏差。當(dāng)所有群體達(dá)到類似的分割準(zhǔn)確性時(shí),它接近零。

當(dāng)我們考慮不同群體間的公平性時(shí),我們需要計(jì)算總體分割準(zhǔn)確性與每個(gè)人口統(tǒng)計(jì)群體內(nèi)的準(zhǔn)確性之間的相對(duì)差異?;谶@個(gè),我們定義了Equity-Scaled Segmentation Performance(ESSP)度量,如下所定義:

018a8ab8-bb44-11ee-8b88-92fbcf53809c.png

這種公式確保ESSP始終小于或等于I。隨著?減小(表示群體間的分割性能平等),ESSP趨于傳統(tǒng)分割metric。相反,較高的?表示群體間分割性能的更大差異,導(dǎo)致較低的ESSP得分。這種方法允許我們?cè)u(píng)估分割模型不僅在準(zhǔn)確性(通過Dice、IoU等metric)上,而且在不同群體間的公平性上。這使得ESSP評(píng)分函數(shù)成為確保醫(yī)學(xué)成像任務(wù)中分割準(zhǔn)確性和公平性的關(guān)鍵指標(biāo)。這種metric可以和傳統(tǒng)的dice IoU拼到一起 成為ES-Dice和ES-IoU.

實(shí)驗(yàn):

我們選擇了兩個(gè)分割網(wǎng)絡(luò)作為backbone 。其中,我們選擇了最近推出的分割大模型 Segment Anything Model (SAM) 來實(shí)驗(yàn)SOTA的分割準(zhǔn)確性,另一個(gè)backbone我們選擇了TransUNet。

0198ff1c-bb44-11ee-8b88-92fbcf53809c.png

01f3ca78-bb44-11ee-8b88-92fbcf53809c.png

020006ee-bb44-11ee-8b88-92fbcf53809c.png

020fb166-bb44-11ee-8b88-92fbcf53809c.png

我們也利用了其他分割的metric例如 HD95 ASD 和NSD進(jìn)行測(cè)試,下面是在種族上的結(jié)果:

022f3e14-bb44-11ee-8b88-92fbcf53809c.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1803

    文章

    48387

    瀏覽量

    244500
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3457

    瀏覽量

    49757
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1219

    瀏覽量

    25181

原文標(biāo)題:ICLR 2024 首個(gè)!Harvard FairSeg:第一個(gè)用于醫(yī)學(xué)分割的公平性數(shù)據(jù)集

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何去獲取Arm Spinlock的公平性

    spinlock.不同的機(jī)制會(huì)有不同的CPU獲取到鎖的公平性問題。為了得到比較直觀感受,我寫了個(gè)test application,在big.LITTLE的A53+A73的平臺(tái),和在
    發(fā)表于 08-04 14:46

    深度學(xué)習(xí)在醫(yī)學(xué)圖像分割與病變識(shí)別中的應(yīng)用實(shí)戰(zhàn)

    的輔助信息,從而改善臨床決策和患者照顧。 然而,要注意的是,這只是醫(yī)學(xué)圖像分割與病變識(shí)別領(lǐng)域的個(gè)小部分。隨著技術(shù)的不斷進(jìn)步,我們可以期待更多創(chuàng)新
    發(fā)表于 09-04 11:11

    高速TCP變種協(xié)議與DCCP協(xié)議的公平性研究

    通過ns-2 仿真,測(cè)試4 種主流高速TCP 變種與DCCP 在不同網(wǎng)絡(luò)環(huán)境下的公平性。仿真結(jié)果表明,在與DCCP 的公平性方面,4 個(gè)變種由優(yōu)到劣依次為CUBIC, HS-TCP, BIC, STCP。測(cè)試結(jié)果有助于更全
    發(fā)表于 03-23 08:50 ?9次下載

    種基于RTT公平性的TCP慢啟動(dòng)算法

    分析標(biāo)準(zhǔn)慢啟動(dòng)算法應(yīng)用于包含GEO 衛(wèi)星鏈路的網(wǎng)絡(luò)時(shí)存在的問題,提出種基于RTT 公平性的TCP 慢啟動(dòng)改進(jìn)算法。改進(jìn)算法采用大初始窗口機(jī)制,慢啟動(dòng)初期窗口保持指數(shù)增長(zhǎng),慢
    發(fā)表于 03-23 08:54 ?17次下載

    基于分層時(shí)間有色Petri網(wǎng)的支付協(xié)議公平性分析

    電子支付協(xié)議是種重要的電子商務(wù)協(xié)議,公平性是其重要的安全屬性之。該文提出種基于分層時(shí)間有色Petri 網(wǎng)(HTCPN)的電子支付協(xié)議形式化分析方法。該方法在進(jìn)行
    發(fā)表于 11-17 13:38 ?9次下載

    種提高IEEE 802.11吞吐量和公平性的自適應(yīng)優(yōu)化算法

    該文提出了種針對(duì)IEEE 802.11 DCF網(wǎng)絡(luò)增強(qiáng)其吞吐量和公平性性能的自適應(yīng)優(yōu)化算法,算法基于網(wǎng)絡(luò)節(jié)點(diǎn)偵聽信道得到的網(wǎng)絡(luò)狀態(tài)信息進(jìn)行競(jìng)爭(zhēng)發(fā)送的自適應(yīng)調(diào)整以獲得最優(yōu)的網(wǎng)絡(luò)
    發(fā)表于 02-10 14:56 ?13次下載

    改進(jìn)DBTMA協(xié)議公平性方案

    針對(duì)雙忙音多址接入?yún)f(xié)議(DBTMA)在解決AdHoc網(wǎng)絡(luò)中的隱終端和暴露終端問題時(shí),出現(xiàn)的不公平性問題.提出了種改進(jìn)方案.改進(jìn)方案去掉原協(xié)議中的忙音信號(hào)發(fā)送.采用時(shí)隙ALOHA協(xié)議對(duì)
    發(fā)表于 05-20 16:50 ?19次下載
    改進(jìn)DBTMA協(xié)議<b class='flag-5'>公平性</b>方案

    基于最大最小公平性的功率分配算法

    針對(duì)多個(gè)終端直通通信(D2D)用戶共享多個(gè)蜂窩用戶資源的公平性問題,在保證蜂窩用戶速率的前提下,提出了基于最大最小公平性( max-min faimess)的功率分配算法。該算法首先將非凸優(yōu)化
    發(fā)表于 12-04 11:46 ?3次下載

    云環(huán)境下能耗感知的公平性提升資源調(diào)度策略

    針對(duì)云計(jì)算環(huán)境下大量的能源消耗和些用戶非法占有計(jì)算資源的問題,為了節(jié)約資源,同時(shí)提高系統(tǒng)的公平性,使所有用戶能合理地使用數(shù)據(jù)中心的所有資源,提出種基于能耗感知的節(jié)能
    發(fā)表于 12-11 16:42 ?1次下載
    云環(huán)境下能耗感知的<b class='flag-5'>公平性</b>提升資源調(diào)度策略

    云環(huán)境下公平性優(yōu)化的資源分配方法

    針對(duì)云數(shù)據(jù)中心資源分配不均、效率不高、資源錯(cuò)位等問題,為了滿足不同用戶的需求,達(dá)到多種資源分配的公平性,實(shí)現(xiàn)資源的高效利用,提出了全局優(yōu)勢(shì)資源公平( GDRF)分配算法。GDRF算法采用多輪分配
    發(fā)表于 12-11 16:46 ?0次下載

    亞馬遜專注于AI的公平性研究

    亞馬遜今日宣布,將與美國(guó)國(guó)家科學(xué)基金會(huì)(NSF)合作,未來三年最多將投入1000萬美元的研究資金,重點(diǎn)放在人工智能和機(jī)器學(xué)習(xí)的公平性上。
    的頭像 發(fā)表于 03-29 09:37 ?3157次閱讀

    人工智能的算法公平性實(shí)現(xiàn)

    我們解決了算法公平性的問題:確保分類器的結(jié)果不會(huì)偏向于敏感的變量值,比如年齡、種族或性別。由于般的公平性度量可以表示為變量之間(條件)獨(dú)立的度量,我們提出使用Renyi最大相關(guān)系數(shù)
    發(fā)表于 11-06 17:04 ?2779次閱讀
    人工智能的算法<b class='flag-5'>公平性</b>實(shí)現(xiàn)

    基于X光圖片的實(shí)例分割垃圾數(shù)據(jù)WIXRay (Waste Item X- Ray)

    提出了第一個(gè)基于 X 光圖片的、實(shí)例級(jí)別的垃圾分割數(shù)據(jù) (WIXRay)。數(shù)據(jù)集中包含 5,038 張 X 光圖片,共 30,845
    的頭像 發(fā)表于 08-08 10:58 ?1955次閱讀

    語義分割數(shù)據(jù):從理論到實(shí)踐

    語義分割是計(jì)算機(jī)視覺領(lǐng)域中的個(gè)重要問題,它的目標(biāo)是將圖像或視頻中的語義信息(如人、物、場(chǎng)景等)從背景中分離出來,以便于進(jìn)行目標(biāo)檢測(cè)、識(shí)別和分類等任務(wù)。語義分割
    的頭像 發(fā)表于 04-23 16:45 ?1147次閱讀

    通用AI大模型Segment Anything在醫(yī)學(xué)影像分割的性能究竟如何?

    為了全面評(píng)估分析SAM在醫(yī)學(xué)影像分割上的表現(xiàn),團(tuán)隊(duì)收集并標(biāo)準(zhǔn)化了52個(gè)公共數(shù)據(jù),最終整理構(gòu)建了
    的頭像 發(fā)表于 05-06 09:57 ?2097次閱讀
    通用AI大模型Segment Anything在<b class='flag-5'>醫(yī)學(xué)</b>影像<b class='flag-5'>分割</b>的性能究竟如何?
    主站蜘蛛池模板: 色综合综合网 | 亚洲福利秒拍一区二区 | 亚洲邪恶天堂影院在线观看 | 三级理论在线播放大全 | 天堂资源吧 | 一级毛片一级毛片一级毛片 | 亚洲午夜久久影院 | 在线成人免费观看国产精品 | 亚洲天堂免费看 | 欲色影视香色天天影视来 | 特级一级全黄毛片免费 | 老师办公室高h文小说 | 色综合激情丁香七月色综合 | 亚洲视频免费一区 | 成年片色大黄全免费网址 | 亚洲人成网站色在线观看 | 能可以直接看的av网址 | 美女视频久久 | 日韩免费观看一级毛片看看 | 久操视频免费观看 | 美女视频黄a全部 | 好爽毛片一区二区三区四区 | 9299yy看片淫黄大片在线 | 激情综合网五月婷婷 | 久久精品免费观看视频 | 不卡视频一区二区 | 国产色妞妞在线视频免费播放 | 3344成年在线视频免费播放男男 | 欧美色香蕉 | 午夜伦理片免费观看在线 | 国产成人综合亚洲怡春院 | 日本一区三区二区三区四区 | 色女人综合 | 国产在线视频你懂得 | 就要干就要操 | 久久精品免费观看 | 日本黄网站高清色大全 | 欧美一卡2卡三卡四卡五卡 欧美一卡二卡3卡4卡无卡六卡七卡科普 | 欧美五月激情 | 日韩欧美亚洲一区 | 欧美一区精品 |