在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

CVPR 2019,曠視14篇論文全覽!

電子工程師 ? 來源:lp ? 2019-03-06 09:28 ? 次閱讀

回顧 CVPR 2018 ,曠視科技有 8 篇論文被收錄,如高效的移動端卷積神經(jīng)網(wǎng)絡 ShuffleNet、語義分割的判別特征網(wǎng)絡 DFN、優(yōu)化解決人群密集遮擋問題的 RepLose、通過角點定位和區(qū)域分割優(yōu)化場景文本檢測的一種新型場景文本檢測器、率先提出的可復原扭曲的文檔圖像等等。

今年,曠視科技在 CVPR 2019 上共有 14 篇論文被接收。這 14 篇論文涉及行人重識別、場景文字檢測、全景分割、圖像超分辨率、語義分割、時空檢測等技術方向。今天,AI科技大本營就先為大家介紹這 14 篇論文,后續(xù)我們會繼續(xù)對各大科技公司的 CVPR 亮點工作進行深度報道,大家可以持續(xù)關注。

行人重識別

1、《Perceive Where to Focus: Learning Visibility-aware Part-level Features for Partial Person Re-identification》:提出了局部可見感知模型——VPM。

論文摘要:

論文中考慮了行人重新識別 (re-ID) 的一個現(xiàn)實問題,即局部行人重識別問題。在局部行人重識別場景下,需要探索數(shù)據(jù)庫圖像中包含整體人物的比例大小。如果直接將局部行人圖像與整體行人圖像進行比較,則極端空間錯位問題將顯著地損害特征表征學習的判別能力。針對這個問題,本文提出了一個局部可見感知模型 (VPM),通過自監(jiān)督學習感知可見區(qū)域內(nèi)的特征,來解決局部行人重識別問題。該模型利用可見感知的特性,能夠提取區(qū)域特征并比較兩張圖像的共享區(qū)域 (共享區(qū)域在兩張圖像上都是可見區(qū)域),從而局部行人重識別問題上取得更好的表現(xiàn)??偟膩碚f,VPM 有兩大優(yōu)勢:一方面,與學習全局特征的模型相比,VPM 模型通過學習圖像區(qū)域特征,能夠更好地提取一些細粒度特征信息。另一方面,利用可見感知特征,VPM 能夠估計兩個圖像之間的共享區(qū)域,從而抑制空間錯位問題。通過大量的實驗結(jié)果驗證,VPM 模型能夠顯著地改善特征表征的學習能力,并且在局部和整體行人重識別場景中,均可獲得與當前最先進方法相當?shù)男阅堋?/p>

圖像 3D 紋理生成

2、《Re-Identification Supervised 3D Texture Generation》:在研究欠缺領域——圖像 3D 紋理生成領域中,提出一種端到端的學習策略。

論文摘要:

近年來,對單張圖像中人體 3D 姿態(tài)和形狀估計的研究得到了廣泛關注。然而,在圖像 3D 紋理生成領域的研究卻相當?shù)那啡?。針對這個問題,本文提出一種端到端的學習策略,利用行人重識別的監(jiān)督信息,來解決圖像中人體紋理生成問題。該方法的核心思想是,利用輸入的圖像渲染圖像中行人紋理,并將行人重識別網(wǎng)絡作為一種感知標準,來最大化渲染圖像和輸入原圖像之間的相似性。本文在行人圖像上進行了大量的實驗,結(jié)果表明所提出的方法能夠從單張圖像輸入中生成紋理,其質(zhì)量明顯優(yōu)于其他方法所生成的紋理。此外,本文將此應用擴展到其他方面,并探索所生成紋理的可使用性。

3D 點云

3、《Modeling Local Geometric Structure of 3D Point Clouds using Geo-CNN》:提出 Geo-CNN 模型,將深度卷積神經(jīng)網(wǎng)絡應用于 3D 點云數(shù)據(jù)局部區(qū)域中點的幾何結(jié)構(gòu)建模。

論文摘要:

得益于深度卷積神經(jīng)網(wǎng)絡 (CNN) 的近期的應用和發(fā)展,許多研究人員將其直接用于 3D 點云的數(shù)據(jù)建模。一些研究已證明,卷積結(jié)構(gòu)對于點云數(shù)據(jù)的局部結(jié)構(gòu)建模是非常有效的,因此研究者將其用于層級特征中的局部點集建模的研究。然而,對于局部區(qū)域中點的幾何結(jié)構(gòu)建模研究的關注卻相當有限。為了解決這個問題,本文提出一種 Geo-CNN 模型,將一個名為 GeoConv 的通用卷積式操作應用于區(qū)域中的每個點及其局部鄰域。當提取區(qū)域中心點與其相鄰點之間的邊緣特征時,該模型能夠捕獲點之間的局部幾何關系。具體來說,首先將邊緣特征的提取過程分解為三個正交基礎,接著基于邊緣向量和基礎向量之間的角度,聚合所提取的特征,通過層級特征的提取,能夠使得網(wǎng)絡特征提取過程中保留歐式空間點的幾何結(jié)構(gòu)。作為一種通用而高效的卷積操作,GeoConv 能夠輕松地將 3D 點云分析過程集成到多個應用中,而以 GeoConv 為結(jié)構(gòu)的 Geo-CNN 模型在 ModelNet40 和 KITTI 數(shù)據(jù)集的點云數(shù)據(jù)建模任務上都實現(xiàn)了當前最先進的性能。

場景文字檢測

4、《Shape Robust Text Detection with Progressive Scale Expansion Network》:提出 PSENet 模型,一種新穎的漸進式尺度可拓展網(wǎng)絡,針對場景文字檢測中任意形狀文本問題。此研究后續(xù)會開源,大家可以繼續(xù)關注。

論文摘要:

得益于深度卷積神經(jīng)網(wǎng)絡的發(fā)展,場景文本檢測領域近來取得了快速發(fā)展。然而,對于其在工業(yè)界是的實際應用而言,仍存在兩大挑戰(zhàn):一方面,大多數(shù)現(xiàn)有的方法都需要采用四邊形的邊界框,這種邊界框在定位任意形狀的文字時的性能很差,精確度很低。另一方面,對于場景中兩個彼此接近、互相干擾的文本,現(xiàn)有技術可能會產(chǎn)生誤檢,結(jié)果會包含兩個實例。傳統(tǒng)的方法采用分段式的技術可以緩解四邊形邊界框的性能問題,但通常無法解決誤檢問題。因此,為了解決上述兩個問題,本文提出了一種新穎的漸進式尺度可擴展網(wǎng)絡 (PSENet),它可以精確魯棒地檢測場景中任意形狀的文本實例。具體地說,PSENet 模型能夠為每個文本實例生成不同比例的核 (kernel),并將最小比例的 kernel 逐步擴展生成完整形狀比例的 kernel,以適應不同大小的文本實例。此外,由于最小尺度的 kernel 之間存在較大的幾何邊距,因此 PASNet 能夠有效地分割場景中一些緊密的文本實例,從而更容易地使用分段方法來檢測任意形狀的文本實例。大量的實驗結(jié)果表明,PSENet 模型在 CTW1500,Total-Text,ICDAR 2015 和 ICDAR 2017 MLT等數(shù)據(jù)集上都能實現(xiàn)非常有效、魯棒的檢測性能。值得注意的是,在包含長曲線的 CTW1500 數(shù)據(jù)集上,PSENet 模型在 27 FPS 的速度下能夠?qū)崿F(xiàn)74.3%的F-measure,而最高的F-measure 可達82.2%,超過當前最先進的方法 6.6%。

全景分割

5、《An End-to-end Network for Panoptic Segmentation》:在全景分割研究領域中,曠視提出了一種新穎的端到端的全景分割模型。

論文摘要:

全景分割,是需要為圖像中每個像素分配類別標簽的同時,分割每個目標實例的一種分割任務。這是一個具有挑戰(zhàn)性的研究領域,傳統(tǒng)的方法使用兩個獨立的模型但二者之間不共享目標特征,這將導致模型實現(xiàn)的效率很低。此外,傳統(tǒng)方法通過一種啟發(fā)式方法來合成兩種模型的結(jié)果,在合并過程期間無法利用足夠的特征上下文信息,這就導致模型難以確定每個目標實例之間的重疊關系。為了解決這些問題,本文提出了一種新穎的端到端全景分割模型,能夠有效地、高效地預測單個網(wǎng)絡中每個目標實例及其分割結(jié)果。此外,還引入了一種新穎的空間排序模塊來處理所預測的實例之間的重疊關系問題。大量的實驗結(jié)果表明,所提出的方法能夠在 COCO Panoptic 基準上取得了非常有前景的結(jié)果。

時空動作檢測

6、《TACNet: Transition-Aware Context Network for Spatio-Temporal Action Detection》:曠視在時空動作檢測研究領域針對時間維度問題提出了網(wǎng)絡——TACNet(上下文轉(zhuǎn)換感知網(wǎng)絡),改善時空動作檢測性能。

論文摘要:

當前,時空動作檢測領域最先進的方法已經(jīng)取得了令人印象深刻的結(jié)果,但對于時間維度的檢測結(jié)果仍然不能令人滿意,其主要原因在于模型會將一些類似于真實行為的模糊狀態(tài)識別為目標行為,即使是當前性能最佳的網(wǎng)絡也是如此。因此,為了解決這個問題,本文將這些模糊狀態(tài)樣本定義為“轉(zhuǎn)換狀態(tài) (transitional states)”,并提出一種上下文轉(zhuǎn)換感知網(wǎng)絡 (TACNet) 來識別這種轉(zhuǎn)換狀態(tài)。TACNet 網(wǎng)絡主要包括兩個關鍵部分,即時間上下文檢測器和轉(zhuǎn)換感知分類器。其中,時間上下文檢測器可以通過構(gòu)造一個循環(huán)檢測器來提取具有恒定時間復雜度的長期上下文信息,而轉(zhuǎn)換感知分類器則是通過同時對行動和轉(zhuǎn)換狀態(tài)進行分類來進一步識別轉(zhuǎn)換狀態(tài)。因此,TACNet 模型可以顯著地改善時空動作檢測的性能,并在 UCF101-24 和 J-HMDB 數(shù)據(jù)集實現(xiàn)非常有效的檢測性能。其中, TACNe 在 JHMDB 數(shù)據(jù)集上取得了非常有競爭力的表現(xiàn),并在 frame-mAP 和 video-mAP 兩個指標上明顯優(yōu)于 UCF101-24 數(shù)據(jù)集中最先進的方法。

圖像超分辨率

7、《Zoom in with Meta-SR: A Magnification-Arbitrary Network for Super-Resolution》:近年來,圖像超分辨率研究已經(jīng)取得了很大的成功,但在這篇論文中,曠視將研究重點放在其一個被忽視的方向:任意縮放因子的超分辨率研究。論文中對此問題提出了一個新方法—— Meta-SR(任意放大網(wǎng)絡)

論文摘要:

得益于深度卷積神經(jīng)網(wǎng)絡 (DCNNs) 的發(fā)展,近期圖像超分辨率領域的研究取得了巨大的成功。然而,對于任意縮放因子的超分辨率研究一直以來都是被忽視的一個方向。先前的研究中,大多數(shù)都是將不同縮放因子的超分辨率視為獨立任務,且只考慮幾種整數(shù)因子的情況,為每個因子訓練特定的模型,這嚴重影響了整體模型的效率。因此,為了解決這個問題,本文提出了一種稱為 Meta-SR 的新方法。具體來說,首先通過單一模型來求解任意縮放因子 (包括非整數(shù)比例因子) 的超分辨率情況。接著,在 Meta-SR 中,使用 Meta-upscale 模塊替代傳統(tǒng)方法中的 upscale 模塊。對于任意縮放因子,Meta-upscale 模塊通過將縮放因子作為輸入來動態(tài)地預測每個 upscale 濾波器的權重,并使用這些權重來生成其他任意大小的高分辨率圖像 (HR)。而對于任意的低分辨率圖像,Meta-SR 可以通過單個模型,以任意縮放因子進行連續(xù)地放大。最后,對于所提出的方法,在一些廣泛使用的基準數(shù)據(jù)集上進行性能評估,結(jié)果展示了 Meta-Upscale 的有效性和優(yōu)越性。

目標檢測

8、《Bounding Box Regression with Uncertainty for Accurate Object Detection》:對目標檢測中不確定性邊界框問題,在這篇論文中提出了一中新的邊界框回歸損失算法,提高了各種檢測體系的目標定位精度。

該研究相關的代碼和模型已開源,地址:

https://github.com/yihui-he/KL-Loss

論文摘要:

諸如 MS-COCO 在內(nèi)大規(guī)模目標檢測數(shù)據(jù)集,都旨在盡可能清楚地定義目標真實的邊界框標注。然而,事實上在標注邊界框時經(jīng)常會產(chǎn)生歧義。因此,為了解決這個問題,本文提出了一種新的邊界框回歸損失 (bounding box regression loss) 算法,用于學習邊界框變換和局部方差。這種損失算法提高了各種檢測體系的目標定位精度,且?guī)缀醪恍枰~外的計算成本。此外,該算法的另一大優(yōu)勢在于它能夠?qū)W習目標的定位方差,這允許模型在非最大抑制 (NMS) 計算階段合并相鄰的邊界框,以便進一步改善了定位的性能。在 MS-COCO 數(shù)據(jù)集上,該損失算法能夠?qū)?Faster R-CNN (VGG-16) 的平均精度 AP 從23.6%提高到29.1%。更重要的是,對于 Mask R-CNN (ResNet-50-FPN),該算法將 AP 和 AP 90 分別提高了1.8%和6.2%,這明顯優(yōu)于當前最先進的邊界框細化 (bounding box refinement) 方法。

語義分割

9、《DFANet: Deep Feature Aggregation for Real-Time Semantic Segmentation》:今年唉語義分割研究方向,曠視提出一種非常有效的 CNN 架構(gòu)——DFANet,一種在有限資源下,用于實時語義分割的深度特征聚合算法。

論文摘要:

本文提出一種在有限資源條件下的語義分割模型 DFANet,這是一種非常有效的 CNN 架構(gòu)。DFANet 從單個輕量級骨干網(wǎng)絡開始,分別通過子網(wǎng)和子級聯(lián)的方式聚合判別性特征。基于多尺度特征的傳播,DFANet 網(wǎng)絡在獲得足夠感受野的同時下,大大減少了模型的參數(shù)量,提高了模型的學習能力,并在分割速度和分割性能之間取得了很好的平衡。通過在 Cityscapes 和 CamVid 數(shù)據(jù)集上的大量實驗評估,驗證了 DFANet 網(wǎng)絡的優(yōu)越性能:相比于最先進的實時語義分割方法,DFANet 網(wǎng)絡的分割速度快了3倍,而只使用七分之一的 FLOP,同時保持相當?shù)姆指顪蚀_性。具體來說,在一塊NVIDIA Titan X卡上,對于1024×1024輸入,DFANet 在 Cityscapes 測試數(shù)據(jù)集上實現(xiàn)了71%的平均 IOU (Mean IOU),分割速度為170FPS,而僅有3.4 GFLOP。同時,當使用較小的骨干模型時,它能夠取得67%的平均IOU (Mean IOU),250 FPS 的分割速度和2.1 GFLOP。

多標簽圖像識別

10、《Multi-Label Image Recognition with graph convolutional Networks》:為了構(gòu)建圖像中同時出現(xiàn)的不同目標標簽的依賴關系模型,來提高模型的識別性能,在這篇論文中提出了一種基于圖卷積網(wǎng)絡模型——GCN。

論文摘要:

多標簽的圖像識別任務,旨在預測圖像中所有存在的目標標簽。由于圖像中的目標通常是同時出現(xiàn)的,因此理想狀態(tài)下,我們希望對不同目標標簽的依賴性進行建模以便提高模型的識別性能。為了捕獲和利用這種重要的依賴關系,本文提出了一種基于圖卷積網(wǎng)絡的模型 (GCN)。該模型能夠在目標標簽之間構(gòu)建有向圖,其中每個節(jié)點 (標簽) 由詞嵌入 (word embedding) 表示,而 GCN 網(wǎng)絡用于將該標簽圖映射到一組相互依賴的目標分類器。這些分類器使用另一個子網(wǎng)絡提取的圖像描述器,實現(xiàn)整個網(wǎng)絡的端到端訓練。此外,通過設計不同類型的相關矩陣并將它們集成到圖卷積網(wǎng)絡中訓練,來深入研究圖構(gòu)建問題。通過在兩個多標簽圖像識別數(shù)據(jù)集基準的試驗評估,結(jié)果表明所提出的方法明顯優(yōu)于當前最先進的方法。此外,可視化分析結(jié)果表明圖卷積網(wǎng)絡模型所學習的分類器能夠保持有意義的語義結(jié)構(gòu)信息。

關于提高 GIF 視覺質(zhì)量

11、《GIF2Video: Color Dequantization and Temporal Interpolation of GIF images》:GIF 圖像中視覺偽像問題如何解決?這篇論文中提出一種 GIF2Video 方法,通過顏色去量化 CNN 模型和時序插值算法 SuperSlomo 網(wǎng)絡,來提高自然條件下 GIF 視覺質(zhì)量。

論文摘要:

GIF 是一種高度可移植的圖形格式,在網(wǎng)絡上無處不在。盡管 GIF 圖像的尺寸小,但它們通常包含一些視覺偽像,如平面顏色區(qū)域,偽輪廓,顏色便移和點狀圖案。本文提出一種 GIF2Video 方法,這是第一種基于學習來提高自然條件下 GIF 視覺質(zhì)量的方法。具體來說,該方法通過恢復 GIF 創(chuàng)建時三個步驟中丟失的信息來實現(xiàn) GIF 的恢復任務:即幀采樣,顏色量化和顏色抖動。首先,提出了一種用于顏色去量化的新型 CNN 架構(gòu),它是一種多步驟的顏色校正組合架構(gòu),并設計一種綜合的損失函數(shù)用于衡量大量化誤差。接著,采用 SuperSlomo 網(wǎng)絡對 GIF 幀進行時間插值。最后,在 GIF-Faces 和 GIF-Moments 兩個大型數(shù)據(jù)集上進行實驗評估,結(jié)果表明所提出的方法能夠顯著地提高 GIF 圖像的視覺質(zhì)量,并優(yōu)于基準和當前最先進的方法。

點云數(shù)據(jù)分析

12、《GeoNet: Deep Geodesic Networks for Point Cloud Analysis》:曠視在這篇論文中提出了 GeoNet 模型,這是第一個用于模擬點云數(shù)據(jù)表面結(jié)構(gòu)的深度學習方法。

論文摘要:

基于表面的測量拓撲理論為目標的語義分析和幾何建模研究提供了強有力的線索。但是,對于點云數(shù)據(jù)而言,這種關聯(lián)信息往往會丟失。因此,本文提出一種 GeoNet 模型,這是第一個用于模擬點云數(shù)據(jù)表面結(jié)構(gòu)的深度學習方法。此外,為了證明模型所學習的信息表示的適用性,本文進一步提出了一種融合方案,用于將 GeoNet 網(wǎng)絡與其他基線或骨干網(wǎng)絡 (如 PU-Net 和 PointNet ++) 結(jié)合使用,用于點云數(shù)據(jù)的 down-stream 分析。大量的實驗結(jié)果表明,所提出的方法能夠在多個代表性的任務 (這些任務受益于底層的表面拓撲信息的理解) 上改進當前最先進方法的性能,包括點上采樣,正常估計,網(wǎng)格重建和非剛性形狀分類等。

室外場景深度估計

13、《DeepLiDAR: Deep Surface Normal Guided Depth Prediction for Outdoor Scene from Sparse LiDAR Data and Single Color Image》:這篇論文提出的深度學習架構(gòu)——DeepLiDAR 主要應用與單色圖像和稀疏深度圖像的室外場景深度估計,實現(xiàn)端到端的圖像密集深度估計。

論文摘要:

本文提出一種深度學習架構(gòu),用于為單色圖像和稀疏深度圖像中室外場景生成精確的密集深度估計。受室內(nèi)場景深度估計方法的啟發(fā),所提出的網(wǎng)絡將曲面法線估計作為一種中間表示,實現(xiàn)端到端的圖像密集深度估計。具體來說,通過改進的編解碼器結(jié)構(gòu),網(wǎng)絡能夠有效地融合密集的單色圖像和稀疏 LiDAR 數(shù)據(jù)的深度。為了解決室外場景的特定挑戰(zhàn),該網(wǎng)絡還預測了一個置信掩模 (confidence mask),用于處理由于遮擋而出現(xiàn)在前景邊界附近的混合 LiDAR 數(shù)據(jù)信號,并將單色圖像和曲面法線的估計結(jié)果與所學習的注意力映射圖相結(jié)合,以便提高深度估計的精度,這對于遠距離的區(qū)域而言尤其重要。通過大量的實驗評估,結(jié)果表明所提出的模型能夠改進了 KITTI 數(shù)據(jù)集深度估計任務上最先進方法的性能。此外,通過消融研究進一步分析模型每個組件對最終估計性能的影響,結(jié)果表明模型具有良好的泛化能力和應用前景,能夠推廣到稀疏度更高的室外或室內(nèi)場景。

緊湊、有效的深度學習模型

14、《C3AE: Exploring the Limits of Compact Model for Age Estimation》:全年曠視的論文中提出了 ShuffleNets 網(wǎng)絡,一種可應用與移動端的輕量級模型,但是在減少參數(shù)數(shù)量的情況下,模型的表達能力肯定會受削弱影響。因此,在今年曠視的這篇論文中提出了這個緊湊而有效的深度學習模型——C3AE,一種基于級聯(lián)上下文信息的模型用于年齡估計問題。

論文摘要:

年齡估計是計算機視覺中一個經(jīng)典的學習問題。諸如 AlexNet,VggNet,GoogLeNet 和 ResNet 等更大更深的 CNN 模型已經(jīng)能夠取得很好的性能。然而,這些模型無法應用于嵌入式/移動設備。最近所提出的 MobileNets 和 ShuffleNets 網(wǎng)絡主要是通過減少參數(shù)的數(shù)量來實現(xiàn)輕量級模型,以便應用于移動端設備。然而,由于采用了深度可分的卷積,這些模型的表達能力被嚴重削弱。因此,針對這些問題,本文研究緊湊模型在小尺度圖像方面的局限性,并提出一種基于級聯(lián)上下文信息的年齡估計模型 C3AE,這是一種極其緊湊而有效深度學習模型。與 MobileNets/ShuffleNets 和 VggNet 等模型相比,C3AE 模型僅具有1/9和1/2000參數(shù),同時實現(xiàn)了與其相當?shù)男阅堋L貏e是,通過級聯(lián)模型能夠只使用兩點表征的信息來重新定義年齡估計問題。此外,為了充分利用人臉上下文信息,本文還提出了多分支的 CNN 網(wǎng)絡來聚合多尺度上下文信息。C3AE 模型在三個年齡估計數(shù)據(jù)集上取得了遠超當前最先進方法的性能表現(xiàn),并證明這種緊湊模型的優(yōu)越性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4809

    瀏覽量

    102826
  • 算法
    +關注

    關注

    23

    文章

    4700

    瀏覽量

    94779
  • 圖像
    +關注

    關注

    2

    文章

    1092

    瀏覽量

    41035

原文標題:首發(fā) | 曠視14篇CVPR 2019論文,都有哪些亮點?

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    智能精密傳感賦能光伏智造流程 | 12個核心工位檢測案例解析

    智能精密傳感技術貫穿硅片制備、電池片生產(chǎn)到組件組裝流程,實現(xiàn)光伏智造檢測環(huán)節(jié)的高精度覆蓋。
    的頭像 發(fā)表于 06-05 12:31 ?164次閱讀
    深<b class='flag-5'>視</b>智能精密傳感賦能光伏智造<b class='flag-5'>全</b>流程 | 12個核心工位檢測案例解析

    后摩智能四論文入選三大國際頂會

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國際頂會收錄 5 論文后,后摩智能近期又有 4 論文入選CVPR、ICML
    的頭像 發(fā)表于 05-29 15:37 ?193次閱讀

    云知聲四論文入選自然語言處理頂會ACL 2025

    結(jié)果正式公布。云知聲在此次國際學術盛會中表現(xiàn)卓越,共有4論文被接收,其中包括2主會論文(Main Paper)和2Findings。入
    的頭像 發(fā)表于 05-26 14:15 ?291次閱讀
    云知聲四<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選自然語言處理頂會ACL 2025

    攜手曙光云與中科天璣合作打造城市智能空間

    近日,北京科技有限公司(以下簡稱“”)、曙光云計算集團股份有限公司(以下簡稱“曙光云”)與中科天璣數(shù)據(jù)科技股份有限公司(以下簡稱“中科天璣”)在北京舉行了合作會談,三方將在互聯(lián)
    的頭像 發(fā)表于 03-20 09:13 ?568次閱讀

    發(fā)布AIS算法生產(chǎn)平臺V5.0版本

    近日,正式發(fā)布自研的算法生產(chǎn)平臺AIS(AI Service)5.0版!此次升級,包括接入DeepSeek等三大核心能力重磅亮相,助力企業(yè)AI生產(chǎn)力再躍升!
    的頭像 發(fā)表于 03-12 17:18 ?624次閱讀

    運動猿入選2024年度智能體育典型案例

    2025年3月3日,工業(yè)和信息化部、國家體育總局聯(lián)合公布了“2024年度智能體育典型案例”名單,“運動猿智能體育教育產(chǎn)品方案”成功入選,成為智能青少年體育產(chǎn)品方向的典型案例。此次獲評是對
    的頭像 發(fā)表于 03-10 10:04 ?395次閱讀

    美報告:中國芯片研究論文全球領先

    論文方面同樣表現(xiàn)出色。 報告數(shù)據(jù)顯示,2018年至2023年間,全球發(fā)布約47.5萬與芯片設計和制造相關的論文。其中34%的論文有來自中國機構(gòu)的作者參與,15%的
    的頭像 發(fā)表于 03-05 14:32 ?866次閱讀

    后摩智能5論文入選國際頂會

    2025年伊始,后摩智能在三大國際頂會(AAAI、ICLR、DAC)中斬獲佳績,共有5論文被收錄,覆蓋大語言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?619次閱讀
    后摩智能5<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選國際頂會

    三菱電機超小型SiC DIPIPM解析

    在Si-IGBT的DIPIPM基礎上,三菱電機開發(fā)了超小型SiC DIPIPM,保持相同的封裝及管腳配置。本文帶你一超小型SiC DIPIPM的優(yōu)勢。
    的頭像 發(fā)表于 01-08 13:48 ?1485次閱讀
    三菱電機超小型<b class='flag-5'>全</b>SiC DIPIPM解析

    中標北京市大數(shù)據(jù)中心感知管理服務平臺二期建設項目

    近日,成功中標北京市大數(shù)據(jù)中心感知管理服務平臺(二期)建設項目,此次中標不僅是對技術實力和服務能力的認可,更標志著
    的頭像 發(fā)表于 12-31 09:20 ?687次閱讀

    亮相2024數(shù)字科技生態(tài)大會

    2024數(shù)字科技生態(tài)大會上,展示了多項聯(lián)網(wǎng)領域的前沿技術及應用成果,包括大模型、行業(yè)場景方案以及創(chuàng)新智能終端。
    的頭像 發(fā)表于 12-06 10:34 ?648次閱讀

    重慶兩江新區(qū)與吉利汽車集團、科技簽署合作協(xié)議

    日前,重慶兩江新區(qū)與吉利汽車集團、科技簽署戰(zhàn)略合作協(xié)議。市委書記袁家軍,市委副書記、市長胡衡華會見了吉利控股集團董事長李書福、科技董事長兼CEO印奇一行并見證簽約。
    的頭像 發(fā)表于 09-02 14:13 ?793次閱讀

    聚焦物聯(lián)網(wǎng)場景,科技核心技術能力持續(xù)升級

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)最近,上交所顯示,科技有限公司已更新提交相關財務資料。該公司早在2021年3月12日上市申請就獲受理,同年9月9日通過上市委會議,2021年9月30日提交注冊。作為
    的頭像 發(fā)表于 07-25 00:09 ?4787次閱讀

    亮相第五屆民航未來機場高峰論壇,展示智慧民航領域的應用成果

    大會不僅是民航業(yè)的一次盛會,更是展示最新科技成果、深化交流合作的重要平臺。在此次大會上的亮相,受到了業(yè)界的廣泛關注。
    的頭像 發(fā)表于 07-23 09:43 ?849次閱讀
    <b class='flag-5'>曠</b><b class='flag-5'>視</b>亮相第五屆民航未來機場高峰論壇,展示智慧民航領域的應用成果

    OpenCV攜Orbbec 3D相機亮相CVPR 2024,加速AI視覺創(chuàng)新

    在科技發(fā)展的浪潮中,一年一度的IEEE國際計算機視覺與模式識別會議(CVPR)無疑是視覺技術領域的一大盛事。今年的CVPR 2024于6月17日至21日在美國西雅圖盛大舉行,吸引了全球超過1.2萬名參會者,這一數(shù)字打破了歷史記錄,讓此次盛會成為了“史上最火爆的
    的頭像 發(fā)表于 06-21 10:15 ?855次閱讀
    主站蜘蛛池模板: 性xxxx奶大欧美高清 | 国产日韩一区二区三区 | 天天干天天做天天操 | 综合亚洲一区二区三区 | 又长又大又粗又硬3p免费视 | 国产美女主播一级成人毛片 | 人人干网站 | 在线视频免费播放 | 中文字幕第13亚洲另类 | 国产免费高清福利拍拍拍 | 日本68xxxxxxxxx59 日本68xxxxxxxxx老师 | 男人都懂的网址在线看片 | ts人妖系列在线专区 | 日本口工福利漫画无遮挡 | 又大又粗进出白浆直流动态图 | 欧美性三级 | 国产吧在线 | 黄www色 | 色综合97天天综合网 | 神马午夜51 | 爱逼综合 | 在线观看黄色的网站 | 国产欧美日韩va | 日韩二级 | 国产大毛片 | 色婷婷成人 | 国产免费久久 | 一级毛片免费毛片一级毛片免费 | 亚洲最色网 | 日本三级香港三级人妇网站 | 日本吻胸抓胸激烈视频网站 | 亚洲免费区| 欧美成人午夜精品免费福利 | 看真人一级毛片 | 香港三级在线视频 | 中文天堂在线视频 | 黄色片啪啪 | 久久毛片视频 | 国产福利影视 | 午夜免费观看_视频在线观看 | 一区二区三区中文 |