在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Segment Anything又能分辨類別了:Meta/UTAustin提出全新開放類分割模型

智能感知與物聯網技術研究所 ? 來源:智能感知與物聯網技術研 ? 2023-04-17 11:40 ? 次閱讀

前幾日,Meta 推出了「分割一切」AI模型Segment Anything,令網友直呼 CV 不存在了?!而在另一篇被CVPR 2023 收錄的論文中,Meta、UTAustin 聯合提出了新的開放語言風格模型(open-vocabulary segmentation, OVSeg),它能讓 Segment Anything 模型知道所要分隔的類別。

從效果上來看,OVSeg 可以與 Segment Anything 結合,完成細粒度的開放語言分割。比如下圖 1 中識別花朵的種類:sunflowers (向日葵)、white roses (白玫瑰)、 chrysanthemums (菊花)、carnations (康乃馨)、green dianthus (綠石竹)。

42988964-dc61-11ed-bfe3-dac502259ad0.jpg

即刻體驗:https://huggingface.co/spaces/facebook/ov-seg

項目地址:https://jeff-liangf.github.io/projects/ovseg/

研究背景

開放式詞匯語義分割旨在根據文本描述將圖像分割成語義區域,這些區域在訓練期間可能沒有被看到。最近的兩階段方法首先生成類別不可知的掩膜提案,然后利用預訓練的視覺-語言模型(例如 CLIP)對被掩膜的區域進行分類。研究者確定這種方法的性能瓶頸是預訓練的 CLIP 模型,因為它在掩膜圖像上表現不佳。

為了解決這個問題,研究者建議在一組被掩膜的圖像區域和它們對應的文本描述的收集的數據上對 CLIP 進行微調。研究者使用 CLIP 將掩膜圖像區域與圖像字幕中的名詞進行匹配,從而收集訓練數據。與具有固定類別的更精確和手動注釋的分割標簽(例如 COCO-Stuff)相比,研究者發現嘈雜但多樣的數據集可以更好地保留 CLIP 的泛化能力。

除了對整個模型進行微調之外,研究者還使用了被掩膜圖像中的「空白」區域,使用了他們稱之為掩膜提示微調的方法。

實驗表明,掩膜提示微調可以在不修改任何 CLIP 權重的情況下帶來顯著的改進,并且它可以進一步改善完全微調的模型。特別是當在 COCO 上進行訓練并在 ADE20K-150 上進行評估時,研究者的最佳模型實現了 29.6%的 mIoU,比先前的最先進技術高出 8.5%。開放式詞匯通用模型首次與 2017 年的受監督專家模型的性能匹配,而不需要特定于數據集的適應。

42cad0f4-dc61-11ed-bfe3-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2210.04150.pdf

論文解讀

動機

研究者的分析表明,預訓練的 CLIP 在掩膜建議上表現不佳,成為兩階段方法的性能瓶頸。

42d9c4e2-dc61-11ed-bfe3-dac502259ad0.png

CLIP 是使用很少的數據增強在自然圖像上進行預訓練的。

兩階段的開放詞匯語義分割方法首先生成類別不可知的掩膜建議,然后利用預訓練的 CLIP 進行開放詞匯分類。CLIP 模型的輸入是裁剪的掩膜圖像,與自然圖像存在巨大的領域差距。

我們的分析表明,預訓練的 CLIP 在掩膜圖像上表現不佳。

方法

研究者的模型包括一個分割模型(例如 MaskFormer)和一個 CLIP 模型。

42fbbe8a-dc61-11ed-bfe3-dac502259ad0.png

他們首先訓練修改后的 MaskFormer 作為開放詞匯分割的基線(第 3.1 節),然后從圖像標題中收集多樣的掩膜-類別對(第 3.2 節),并適應 CLIP 用于掩膜圖像(第 3.3 節)。

結果

研究者首次展示開放詞匯的通用模型可以在沒有數據集特定調整的情況下與受監督的專業模型的性能相匹配。

432f4890-dc61-11ed-bfe3-dac502259ad0.png

更多分類示例如下所示。

435ced18-dc61-11ed-bfe3-dac502259ad0.jpg

438a02d0-dc61-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 圖像
    +關注

    關注

    2

    文章

    1094

    瀏覽量

    41057
  • AI
    AI
    +關注

    關注

    88

    文章

    34405

    瀏覽量

    275680
  • 模型
    +關注

    關注

    1

    文章

    3499

    瀏覽量

    50065

原文標題:分割一切后,Segment Anything又能分辨類別了:Meta/UTAustin提出全新開放類分割模型

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    如何在SAM時代下打造高效的高性能計算大模型訓練平臺

    Segment Anything Model (SAM)是Meta 公司最近推出的一個創新AI 模型,專門用于計算機視覺領域圖像分割任務。借
    的頭像 發表于 08-21 04:02 ?2981次閱讀
    如何在SAM時代下打造高效的高性能計算大<b class='flag-5'>模型</b>訓練平臺

    基于像素聚進行圖像分割的算法

    B型心臟超聲圖像分割是計算心功能參數前重要的一步。針對超聲圖像的低分辨率影響分割精度及基于模型分割算法需要大樣本訓練集的問題,結合B型心臟
    發表于 12-06 16:44 ?0次下載
    基于像素聚<b class='flag-5'>類</b>進行圖像<b class='flag-5'>分割</b>的算法

    通用AI大模型Segment Anything在醫學影像分割的性能究竟如何?

    為了全面評估分析SAM在醫學影像分割上的表現,團隊收集并標準化了52個公共數據集,最終整理構建了一個包含16種影像模態和68種生物醫學領域分割目標(表1)的大型醫學影像分割數據集COSMOS 553K,數據集的展示見圖1,統計信
    的頭像 發表于 05-06 09:57 ?2322次閱讀
    通用AI大<b class='flag-5'>模型</b><b class='flag-5'>Segment</b> <b class='flag-5'>Anything</b>在醫學影像<b class='flag-5'>分割</b>的性能究竟如何?

    AI+制造業:機器視覺開啟掘金新大陸

    4月6日,Meta官方博客宣布推出新AI模型 Segment Anything Model(SAM)分割一切
    的頭像 發表于 05-15 16:32 ?1517次閱讀
    AI+制造業:機器視覺開啟掘金新大陸

    SAM分割模型是什么?

    SAM是一處理圖像分割任務的通用模型。與以往只能處理某種特定類型圖片的圖像分割模型不同,SAM可以處理所有類型的圖像。
    的頭像 發表于 05-20 09:30 ?2780次閱讀

    近期分割模型發展情況

    SAM(Segment Anything Model)Meta 的 FAIR 實驗室發布的一種最先進的圖像分割模型,該
    的頭像 發表于 05-22 16:26 ?1186次閱讀
    近期<b class='flag-5'>分割</b>大<b class='flag-5'>模型</b>發展情況

    Segment Anything量化加速有多強!

    分割一切,大家一起失業!”——近期,這樣一句話在社交媒體上大火!這講的就是 Segment Anything Model(簡稱 “SAM” )。
    的頭像 發表于 06-11 14:24 ?1498次閱讀
    <b class='flag-5'>Segment</b> <b class='flag-5'>Anything</b>量化加速有多強!

    分割一切?Segment Anything量化加速實戰

    SAM 是一個由 Meta AI 實驗室推出的強大人工智能圖像分割應用,可以自動識別哪些圖像像素屬于一個對象,并且對圖像中各個對象進行自動風格處理,可廣泛用于分析科學圖像、編輯照片等。
    的頭像 發表于 06-16 16:47 ?1473次閱讀
    <b class='flag-5'>分割</b>一切?<b class='flag-5'>Segment</b> <b class='flag-5'>Anything</b>量化加速實戰

    YOLOv8最新版本支持SAM分割一切

    分割任何模型Segment Anything Model - SAM) 是一種突破性的圖像分割模型
    的頭像 發表于 06-18 11:42 ?1936次閱讀
    YOLOv8最新版本支持SAM<b class='flag-5'>分割</b>一切

    Meta開源I-JEPA,“人”AI模型

    Meta 宣布推出一個全新的 AI 模型 Image Joint Embedding Predictive Architecture (I-JEPA),可通過對圖像的自我監督學習來學習世界的抽象表征
    的頭像 發表于 06-18 17:47 ?1330次閱讀
    <b class='flag-5'>Meta</b>開源I-JEPA,“<b class='flag-5'>類</b>人”AI<b class='flag-5'>模型</b>

    基于 Transformer 的分割與檢測方法

    來源:機器之心 SAM (Segment Anything )作為一個視覺的分割基礎模型,在短短的 3 個月時間吸引了很多研究者的關注和跟進。如果你想系統地了解 SAM 背后的技術,并
    的頭像 發表于 07-05 10:18 ?1425次閱讀
    基于 Transformer 的<b class='flag-5'>分割</b>與檢測方法

    ICCV 2023 | 超越SAM!EntitySeg:更少的數據,更高的分割質量

    ,需要在不同的圖像領域、新的物體類別以及各種圖像分辨率和質量下都能夠保持魯棒性。為了解決這個問題,早在 SAM[6] 模型一年之前,一種不考慮類別的實體
    的頭像 發表于 10-02 10:40 ?1148次閱讀
    ICCV 2023 | 超越SAM!EntitySeg:更少的數據,更高的<b class='flag-5'>分割</b>質量

    Meta發布全新開源大模型Llama 3.1

    科技巨頭Meta近期震撼發布了其最新的開源人工智能(AI)模型——Llama 3.1,這一舉措標志著Meta在AI領域的又一重大突破。Meta創始人馬克·扎克伯格親自站臺,盛贊Llam
    的頭像 發表于 07-24 18:25 ?1727次閱讀

    Meta Llama 3.1系列模型可在Google Cloud上使用

    我們很高興宣布,Llama 3.1 系列模型已添加到 Vertex AI Model Garden,這包括全新的 405B,即 Meta 迄今為止功能最強大、用途最廣泛的模型。這些
    的頭像 發表于 08-02 15:42 ?673次閱讀

    Meta發布新AI模型Meta Motivo,旨在提升元宇宙體驗

    Meta公司近日宣布,將推出一款名為Meta Motivo的全新人工智能模型。該模型具備控制類似人類的數字代理動作的能力,有望為元宇宙的用戶
    的頭像 發表于 12-16 10:34 ?896次閱讀
    主站蜘蛛池模板: 很黄很污小说 | 九九国产精品 | videosex久久麻豆 | 在线免费亚洲 | 色狠狠狠色噜噜噜综合网 | 一级不卡毛片 | 涩涩涩丁香色婷五月网视色 | 亚洲综合丁香 | 久久夜色精品国产噜噜 | 午夜精品影院 | 久久深夜福利 | 一级@片 | 加勒比一到三区 | 天天拍天天射 | 国产美女久久久久 | 全午夜免费一级毛片 | 亚洲精品系列 | 97色在线播放 | 天天爽夜夜爽人人爽一区二区 | 国产做a爰片久久毛片 | 高清国产一区二区三区 | 欧美精品四虎在线观看 | 亚洲精品综合网在线8050影院 | 丁香婷五月 | 速度与激情在线 | 1024手机看片国产旧版你懂的 | 欧美色穴| 三级视频网站 | 2021久久精品免费观看 | 久久久久久久成人午夜精品福利 | 亚洲第成色999久久网站 | 免费理论片在线观看播放 | 丁香五香天堂网卡 | 精品久久久久久中文字幕欧美 | 操美女免费网站 | 在线播放亚洲视频 | 欧美xxx69| 日本特黄特色大片免费看 | 久久人人做人人玩人精品 | 夜夜爽爽| 男女交性视频播放视频视频 |