在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

真實(shí)場(chǎng)景的雙目立體匹配獲取深度圖詳解

新機(jī)器視覺 ? 來源:博客園 ? 作者:一度逍遙 ? 2020-08-28 15:26 ? 次閱讀

雙目立體匹配一直是雙目視覺的研究熱點(diǎn),雙目相機(jī)拍攝同一場(chǎng)景的左、右兩幅視點(diǎn)圖像,運(yùn)用立體匹配匹配算法獲取視差圖,進(jìn)而獲取深度圖。而深度圖的應(yīng)用范圍非常廣泛,由于其能夠記錄場(chǎng)景中物體距離攝像機(jī)的距離,可以用以測(cè)量、三維重建、以及虛擬視點(diǎn)的合成等。

之前有兩篇博客簡(jiǎn)要講過OpenCV3.4中的兩種立體匹配算法效果比較。以及利用視差圖合成新視點(diǎn)。里面用到的匹配圖像對(duì)是OpenCV自帶校正好的圖像對(duì)。而目前大多數(shù)立體匹配算法使用的都是標(biāo)準(zhǔn)測(cè)試平臺(tái)提供的標(biāo)準(zhǔn)圖像對(duì),比如著名的有如下兩個(gè):
MiddleBury

KITTI

但是對(duì)于想自己嘗試拍攝雙目圖片進(jìn)行立體匹配獲取深度圖,進(jìn)行三維重建等操作的童鞋來講,要做的工作是比使用校正好的標(biāo)準(zhǔn)測(cè)試圖像對(duì)要多的。因此博主覺得有必要從用雙目相機(jī)拍攝圖像開始,捋一捋這整個(gè)流程。

主要分四個(gè)部分講解:

攝像機(jī)標(biāo)定(包括內(nèi)參和外參)

雙目圖像的校正(包括畸變校正和立體校正)

立體匹配算法獲取視差圖,以及深度圖

利用視差圖,或者深度圖進(jìn)行虛擬視點(diǎn)的合成

注:如果沒有雙目相機(jī),可以使用單個(gè)相機(jī)平行移動(dòng)拍攝,外參可以通過攝像機(jī)自標(biāo)定算出。我用自己的手機(jī)拍攝,拍攝移動(dòng)時(shí)盡量保證平行移動(dòng)。

一、攝像機(jī)標(biāo)定

1.內(nèi)參標(biāo)定

攝像機(jī)內(nèi)參反映的是攝像機(jī)坐標(biāo)系到圖像坐標(biāo)系之間的投影關(guān)系。攝像機(jī)內(nèi)參的標(biāo)定使用張正友標(biāo)定法,簡(jiǎn)單易操作,具體原理請(qǐng)拜讀張正友的大作《A Flexible New Technique for Camera Calibration》。當(dāng)然網(wǎng)上也會(huì)有很多資料可供查閱,MATLAB 有專門的攝像機(jī)標(biāo)定工具包,OpenCV封裝好的攝像機(jī)標(biāo)定API等。使用OpenCV進(jìn)行攝像機(jī)標(biāo)定的可以參考我的第一篇博客:http://www.cnblogs.com/riddick/p/6696858.html。里面提供有張正友標(biāo)定法OpenCV實(shí)現(xiàn)的源代碼git地址,僅供參考。

攝像機(jī)的內(nèi)參包括,fx, fy, cx, cy,以及畸變系數(shù)[k1,k2,p1,p2,k3],詳細(xì)就不贅述。我用手機(jī)對(duì)著電腦拍攝各個(gè)角度的棋盤格圖像,棋盤格圖像如圖所示:

使用OpenCV3.4+VS2015對(duì)手機(jī)進(jìn)行內(nèi)參標(biāo)定。標(biāo)定結(jié)果如下,手機(jī)鏡頭不是魚眼鏡頭,因此使用普通相機(jī)模型標(biāo)定即可:

圖像分辨率為:3968 x 2976。上面標(biāo)定結(jié)果順序依次為fx, fy, cx, cy, k1, k2, p1, p2, k3, 保存到文件中供后續(xù)使用。

2.外參標(biāo)定

攝像機(jī)外參反映的是攝像機(jī)坐標(biāo)系和世界坐標(biāo)系之間的旋轉(zhuǎn)R和平移T關(guān)系。如果兩個(gè)相機(jī)的內(nèi)參均已知,并且知道各自與世界坐標(biāo)系之間的R1、T1和R2,T2,就可以算出這兩個(gè)相機(jī)之間的Rotation和Translation,也就找到了從一個(gè)相機(jī)坐標(biāo)系到另一個(gè)相機(jī)坐標(biāo)系之間的位置轉(zhuǎn)換關(guān)系。攝像機(jī)外參標(biāo)定也可以使用標(biāo)定板,只是保證左、右兩個(gè)相機(jī)同時(shí)拍攝同一個(gè)標(biāo)定板的圖像。外參一旦標(biāo)定好,兩個(gè)相機(jī)的結(jié)構(gòu)就要保持固定,否則外參就會(huì)發(fā)生變化,需要重新進(jìn)行外參標(biāo)定。

那么手機(jī)怎么保證拍攝同一個(gè)標(biāo)定板圖像并能夠保持相對(duì)位置不變,這個(gè)是很難做到的,因?yàn)楹罄m(xù)用來拍攝實(shí)際測(cè)試圖像時(shí),手機(jī)的位置肯定會(huì)發(fā)生變化。因此我使用外參自標(biāo)定的方法,在拍攝實(shí)際場(chǎng)景的兩張圖像時(shí),進(jìn)行攝像機(jī)的外參自標(biāo)定,從而獲取當(dāng)時(shí)兩個(gè)攝像機(jī)位置之間的Rotation和Translation。

比如:我拍攝這樣兩幅圖像,以后用來進(jìn)行立體匹配和虛擬視點(diǎn)合成的實(shí)驗(yàn)。

① 利用攝像機(jī)內(nèi)參進(jìn)行畸變校正,手機(jī)的畸變程度都很小,校正后的兩幅圖如下:

② 將上面兩幅畸變校正后的圖作為輸入,使用OpenCV中的光流法提取匹配特征點(diǎn)對(duì),pts1和pts2,在圖像中畫出如下:

③ 利用特征點(diǎn)對(duì)pts1和pts2,以及內(nèi)參矩陣camK,解算出本質(zhì)矩陣E:

cv::Mat E = cv::findEssentialMat(tmpPts1, tmpPts2,camK, CV_RANSAC);

④ 利用本質(zhì)矩陣E解算出兩個(gè)攝像機(jī)之間的Rotation和Translation,也就是兩個(gè)攝像機(jī)之間的外參。以下是OpenCV中API函數(shù)實(shí)現(xiàn)的,具體請(qǐng)參見API文檔:

cv::Mat R1, R2; cv::decomposeEssentialMat(E, R1, R2, t); R = R1.clone(); t = -t.clone();

二、雙目圖像的校正

1. 畸變校正

畸變校正前面已經(jīng)介紹過,利用畸變系數(shù)進(jìn)行畸變校正即可,下面說一下立體校正。

2. 立體校正

① 得到兩個(gè)攝像機(jī)之間的 Rotation和Translation之后,要用下面的API對(duì)兩幅圖像進(jìn)行立體對(duì)極線校正,這就需要算出兩個(gè)相機(jī)做對(duì)極線校正需要的R和T,用R1,T1, R2, T2表示,以及透視投影矩陣P1,P2:

cv::stereoRectify(camK, D, camK, D, imgL.size(), R, -R*t,R1, R2, P1, P2, Q);

② 得到上述參數(shù)后,就可以使用下面的API進(jìn)行對(duì)極線校正操作了,并將校正結(jié)果保存到本地:

cv::Rect(0, 0, 3, 3)),D, R1, P1(cv::Rect(0, 0, 3, 3)), imgL.size(), CV_32FC1,mapx, mapy);cv::remap(imgL, recImgL, mapx, mapy, CV_INTER_LINEAR); cv::imwrite("data/recConyL.png", recImgL); cv::Rect(0, 0, 3, 3)),D, R2, P2(cv::Rect(0, 0, 3, 3)), imgL.size(), CV_32FC1,mapx, mapy);cv::remap(imgR, recImgR, mapx, mapy, CV_INTER_LINEAR); cv::imwrite("data/recConyR.png", recImgR);

對(duì)極線校正結(jié)果如下所示,查看對(duì)極線校正結(jié)果是否準(zhǔn)確,可以通過觀察若干對(duì)應(yīng)點(diǎn)是否在同一行上粗略估計(jì)得出:

三、立體匹配

1. SGBM算法獲取視差圖

立體校正后的左右兩幅圖像得到后,匹配點(diǎn)是在同一行上的,可以使用OpenCV中的BM算法或者SGBM算法計(jì)算視差圖。由于SGBM算法的表現(xiàn)要遠(yuǎn)遠(yuǎn)優(yōu)于BM算法,因此采用SGBM算法獲取視差圖。SGBM中的參數(shù)設(shè)置如下:

int numberOfDisparities = ((imgSize.width / 8)+ 15) & -16; cv::Ptr sgbm = cv::create(0, 16, 3); sgbm->setPreFilterCap(32); int SADWindowSize = 9; int sgbmWinSize = SADWindowSize > 0 ? SADWindowSize: 3; sgbm->setBlockSize(sgbmWinSize); int cn = imgL.channels(); sgbm->setP1(8 * cn*sgbmWinSize*sgbmWinSize); sgbm->setP2(32 * cn*sgbmWinSize*sgbmWinSize);sgbm->setMinDisparity(0); sgbm->setNumDisparities(numberOfDisparities);sgbm->setUniquenessRatio(10); sgbm->setSpeckleWindowSize(100); sgbm->setSpeckleRange(32); sgbm->setDisp12MaxDiff(1); int alg = STEREO_SGBM; if (alg == STEREO_HH) sgbm->setMode(cv::MODE_HH); else if (alg == STEREO_SGBM) sgbm->setMode(cv::MODE_SGBM); else if (alg == STEREO_3WAY) sgbm->setMode(cv::MODE_SGBM_3WAY);sgbm->compute(imgL, imgR, disp);

默認(rèn)計(jì)算出的是左視差圖,如果需要計(jì)算右視差圖,則將上面加粗的三條語句替換為下面前三條語句。由于視差值計(jì)算出來為負(fù)值,disp類型為16SC1,因此需要取絕對(duì)值,然后保存:

sgbm->setMinDisparity(-numberOfDisparities); sgbm->setNumDisparities(numberOfDisparities); sgbm->compute(imgR, imgL, disp);disp = abs(disp);

SGBM算法得到的左、右視差圖如下,左視差圖的數(shù)據(jù)類型為CV_16UC1,右視差圖的數(shù)據(jù)類型為CV_16SC1(SGBM中視差圖中不可靠的視差值設(shè)置為最小視差(mindisp-1)*16。因此在此例中,左視差圖中不可靠視差值設(shè)置為-16,截?cái)嘀禐?;右視差圖中不可靠視差值設(shè)置為(-numberOfDisparities-1)*16,取絕對(duì)值后為(numberOfDisparities+1)*16,所以兩幅圖會(huì)有較大差別):

左視差圖(不可靠視差值為0) 右視差圖(不可靠視差值為 (numberOfDisparities+1)*16)

如果將右視差圖不可靠視差值也設(shè)置為0,則如下:

至此,左視差圖和右視差圖遙相呼應(yīng)。

2. 視差圖空洞填充

視差圖中視差值不可靠的視差大多數(shù)是由于遮擋引起,或者光照不均勻引起。既然牛逼如SGBM也覺得不可靠,那與其留著做個(gè)空洞,倒不如用附近可靠的視差值填充一下。

空洞填充也有很多方法,在這里我檢測(cè)出空洞區(qū)域,然后用附近可靠視差值的均值進(jìn)行填充。填充后的視差圖如下:

填充后左視差圖 填充后右視差圖

3. 視差圖轉(zhuǎn)換為深度圖

視差的單位是像素(pixel),深度的單位往往是毫米(mm)表示。而根據(jù)平行雙目視覺的幾何關(guān)系(此處不再畫圖推導(dǎo),很簡(jiǎn)單),可以得到下面的視差與深度的轉(zhuǎn)換公式:

depth = ( f * baseline) / disp

上式中,depth表示深度圖;f表示歸一化的焦距,也就是內(nèi)參中的fx;baseline是兩個(gè)相機(jī)光心之間的距離,稱作基線距離;disp是視差值。等式后面的均已知,深度值即可算出。

在上面我們用SGBM算法獲取了視差圖,接下來轉(zhuǎn)換為深度圖,函數(shù)代碼如下:

/* 函數(shù)作用:視差圖轉(zhuǎn)深度圖 輸入: dispMap ----視差圖,8位單通道,CV_8UC1 K ----內(nèi)參矩陣,float類型 輸出: depthMap ----深度圖,16位無符號(hào)單通道,CV_16UC1 */void disp2Depth(cv::Mat dispMap, cv::Mat &depthMap, cv::Mat K) { int type = dispMap.type(); float fx = K.at(0, 0); float fy = K.at(1, 1); float cx = K.at(0, 2); float cy = K.at(1, 2); float baseline = 65; //基線距離65mm if (type == CV_8U) { const float PI = 3.14159265358; int height = dispMap.rows; int width = dispMap.cols; uchar* dispData = (uchar*)dispMap.data; ushort* depthData = (ushort*)depthMap.data; for (int i = 0; i < height; i++) { for (int j = 0; j < width; j++) { int id = i*width + j; if (!dispData[id]) continue; //防止0除depthData[id] = ushort( (float)fx *baseline / ((float)dispData[id]) ); } } } else { cout << "please confirm dispImg's type!" << endl; cv::waitKey(0); } }

注:png的圖像格式可以保存16位無符號(hào)精度,即保存范圍為0-65535,如果是mm為單位,則最大能表示約65米的深度,足夠了。

上面代碼中我設(shè)置深度圖的精度為CV_16UC1,也就是ushort類型,將baseline設(shè)置為65mm,轉(zhuǎn)換后保存為png格式即可。如果保存為jpg或者bmp等圖像格式,會(huì)將數(shù)據(jù)截?cái)酁?-255。所以保存深度圖,png格式是理想的選擇。(如果不是為了獲取精確的深度圖,可以將baseline設(shè)置為1,這樣獲取的是相對(duì)深度圖,深度值也是相對(duì)的深度值)

轉(zhuǎn)換后的深度圖如下:

左深度圖 右深度圖

空洞填充后的深度圖,如下:

左深度圖(空洞填充后) 右深度圖(空洞填充后)

視差圖到深度圖完成。

注:視差圖和深度圖中均有計(jì)算不正確的點(diǎn),此文意在介紹整個(gè)流程,不特別注重算法的優(yōu)化,如有大神望不吝賜教。

附:視差圖和深度圖的空洞填充

步驟如下:

① 以視差圖dispImg為例。計(jì)算圖像的積分圖integral,并保存對(duì)應(yīng)積分圖中每個(gè)積分值處所有累加的像素點(diǎn)個(gè)數(shù)n(空洞處的像素點(diǎn)不計(jì)入n中,因?yàn)榭斩刺幭袼刂禐?,對(duì)積分值沒有任何作用,反而會(huì)平滑圖像)。

② 采用多層次均值濾波。首先以一個(gè)較大的初始窗口去做均值濾波(積分圖實(shí)現(xiàn)均值濾波就不多做介紹了,可以參考我之前的一篇博客),將大區(qū)域的空洞賦值。然后下次濾波時(shí),將窗口尺寸縮小為原來的一半,利用原來的積分圖再次濾波,給較小的空洞賦值(覆蓋原來的值);依次類推,直至窗口大小變?yōu)?x3,此時(shí)停止濾波,得到最終結(jié)果。

③ 多層次濾波考慮的是對(duì)于初始較大的空洞區(qū)域,需要參考更多的鄰域值,如果采用較小的濾波窗口,不能夠完全填充,而如果全部采用較大的窗口,則圖像會(huì)被嚴(yán)重平滑。因此根據(jù)空洞的大小,不斷調(diào)整濾波窗口。先用大窗口給所有空洞賦值,然后利用逐漸變成小窗口濾波覆蓋原來的值,這樣既能保證空洞能被填充上,也能保證圖像不會(huì)被過度平滑。

空洞填充的函數(shù)代碼如下,僅供參考:

1 void insertDepth32f(cv::Mat& depth) 2 { 3 const int width = depth.cols; 4 const int height = depth.rows; 5 float* data = (float*)depth.data; 6 cv::Mat integralMap = cv::zeros(height,width, CV_64F); 7 cv::Mat ptsMap = cv::zeros(height, width,CV_32S); 8 double* integral = (double*)integralMap.data; 9 int* ptsIntegral = (int*)ptsMap.data; 10 memset(integral, 0, sizeof(double) * width *height); 11 memset(ptsIntegral, 0, sizeof(int) * width *height); 12 for (int i = 0; i < height; ++i) 13 { 14 int id1 = i * width; 15 for (int j = 0; j < width; ++j) 16 { 17 int id2 = id1 + j; 18 if (data[id2] > 1e-3) 19 { 20 integral[id2] = data[id2]; 21 ptsIntegral[id2] = 1; 22 } 23 } 24 } 25 // 積分區(qū)間 26 for (int i = 0; i < height; ++i) 27 { 28 int id1 = i * width; 29 for (int j = 1; j < width; ++j) 30 { 31 int id2 = id1 + j; 32 integral[id2] += integral[id2 - 1]; 33 ptsIntegral[id2] += ptsIntegral[id2 - 1]; 34 } 35 } 36 for (int i = 1; i < height; ++i) 37 { 38 int id1 = i * width; 39 for (int j = 0; j < width; ++j) 40 { 41 int id2 = id1 + j; 42 integral[id2] += integral[id2 - width]; 43 ptsIntegral[id2] += ptsIntegral[id2 - width]; 44 } 45 } 46 int wnd; 47 double dWnd = 2; 48 while (dWnd > 1) 49 { 50 wnd = int(dWnd); 51 dWnd /= 2; 52 for (int i = 0; i < height; ++i) 53 { 54 int id1 = i * width; 55 for (int j = 0; j < width; ++j) 56 { 57 int id2 = id1 + j; 58 int left = j - wnd - 1; 59 int right = j + wnd; 60 int top = i - wnd - 1; 61 int bot = i + wnd; 62 left = max(0, left); 63 right = min(right, width - 1); 64 top = max(0, top); 65 bot = min(bot, height - 1); 66 int dx = right - left; 67 int dy = (bot - top) * width; 68 int idLeftTop = top * width + left; 69 int idRightTop = idLeftTop + dx; 70 int idLeftBot = idLeftTop + dy; 71 int idRightBot = idLeftBot + dx; 72 int ptsCnt = ptsIntegral[idRightBot]+ ptsIntegral[idLeftTop] - (ptsIntegral[idLeftBot] +ptsIntegral[idRightTop]); 73 double sumGray = integral[idRightBot]+ integral[idLeftTop] - (integral[idLeftBot] + integral[idRightTop]); 74 if (ptsCnt <= 0) 75 { 76 continue; 77 } 78 data[id2] = float(sumGray / ptsCnt); 79 } 80 } 81 int s = wnd / 2 * 2 + 1; 82 if (s > 201) 83 { 84 s = 201; 85 } 86 cv::GaussianBlur(depth, depth, cv::Size(s, s), s, s); 87 } 88 }

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 攝像機(jī)
    +關(guān)注

    關(guān)注

    3

    文章

    1689

    瀏覽量

    61091
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41048
  • OpenCV
    +關(guān)注

    關(guān)注

    32

    文章

    642

    瀏覽量

    42469

原文標(biāo)題:真實(shí)場(chǎng)景的雙目立體匹配(Stereo Matching)獲取深度圖詳解

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    智能軟件+硬件解決方案克服實(shí)時(shí)立體視覺中的挑戰(zhàn)

    立體視覺是一種強(qiáng)大的成像技術(shù),通過使用兩臺(tái)或多臺(tái)相機(jī)以略微不同的角度拍攝,模擬人類通過雙眼感知深度的方式,從而捕捉環(huán)境的三維結(jié)構(gòu)。這項(xiàng)技術(shù)能夠提供全視野的高密度三維測(cè)量,并在非結(jié)構(gòu)化和動(dòng)態(tài)環(huán)境中表
    的頭像 發(fā)表于 05-16 17:04 ?118次閱讀
    智能軟件+硬件解決方案克服實(shí)時(shí)<b class='flag-5'>立體</b>視覺中的挑戰(zhàn)

    打破室外全域工作“盲區(qū)”!廣和通雙目視覺算法將成就云深處科技機(jī)器狗“慧眼”

    雙目視覺模塊RV-BOT為云深處科技四足機(jī)器人打通室外工作鏈路。通過深度融合廣和通自主研發(fā)的雙目視覺算法,RV-BOT將顯著提升了室外場(chǎng)景中的定位精度,為國(guó)產(chǎn)足式機(jī)器人的自主導(dǎo)航與智能
    發(fā)表于 05-15 14:26 ?1103次閱讀
    打破室外全域工作“盲區(qū)”!廣和通<b class='flag-5'>雙目</b>視覺算法將成就云深處科技機(jī)器狗“慧眼”

    奧比中光發(fā)布新一代雙目3D相機(jī)Gemini 435Le

    近日,奧比中光在美國(guó)底特律舉辦的Automate 2025展會(huì)上發(fā)布Gemini 435Le,獲得眾多機(jī)器人專業(yè)人士的關(guān)注。作為最新一代工業(yè)級(jí)雙目視覺解決方案,Gemini 435Le雙目3D相機(jī)在前作基礎(chǔ)上針對(duì)智能機(jī)器人的工業(yè)自動(dòng)化應(yīng)用
    的頭像 發(fā)表于 05-14 17:15 ?319次閱讀

    如何獲取 OpenAI API Key?API 獲取與代碼調(diào)用示例 (詳解教程)

    OpenAI API Key 獲取與使用詳解:從入門到精通 OpenAI 正以其 GPT 和 DALL-E 等先進(jìn)模型引領(lǐng)全球人工智能創(chuàng)新。其 API 為開發(fā)者和企業(yè)提供了強(qiáng)大的 AI 能力集成途徑
    的頭像 發(fā)表于 05-04 11:42 ?707次閱讀
    如何<b class='flag-5'>獲取</b> OpenAI API Key?API <b class='flag-5'>獲取</b>與代碼調(diào)用示例 (<b class='flag-5'>詳解</b>教程)

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    的Cartographer以其高效的子地圖管理和回環(huán)檢測(cè)能力著稱。書中通過實(shí)例演示了如何配置Cartographer的Lua參數(shù)文件,以適應(yīng)不同場(chǎng)景。 在真實(shí)機(jī)器人測(cè)試中,運(yùn)動(dòng)噪聲(如輪子打滑)可能導(dǎo)致建漂移,因此需要
    發(fā)表于 05-03 19:41

    Claude 3.7:編碼助手首選,claude api key如何申請(qǐng)獲取深度解析*

    核心看點(diǎn) 混合推理引擎 :Claude 3.7 融合快速代碼生成與深度問題解決能力,實(shí)現(xiàn)“快思考”與“深思考”的無縫切換。 便捷API訪問 :三步快速獲取Claude 3.7 API密鑰,安全、簡(jiǎn)單
    的頭像 發(fā)表于 03-24 09:43 ?784次閱讀
    Claude 3.7:編碼助手首選,claude api key如何申請(qǐng)<b class='flag-5'>獲取</b>與<b class='flag-5'>深度</b>解析*

    使用AFG31000系列信號(hào)發(fā)生器精準(zhǔn)復(fù)制真實(shí)場(chǎng)景信號(hào)

    在電子工程與測(cè)試測(cè)量領(lǐng)域,精準(zhǔn)復(fù)制真實(shí)場(chǎng)景信號(hào)是進(jìn)行設(shè)備性能測(cè)試、系統(tǒng)仿真和故障診斷的關(guān)鍵。泰克AFG31000系列信號(hào)發(fā)生器憑借其寬頻帶覆蓋、高精度輸出和豐富的調(diào)制功能,成為工程師在信號(hào)仿真與測(cè)試
    的頭像 發(fā)表于 03-20 11:45 ?244次閱讀
    使用AFG31000系列信號(hào)發(fā)生器精準(zhǔn)復(fù)制<b class='flag-5'>真實(shí)</b><b class='flag-5'>場(chǎng)景</b>信號(hào)

    【AIBOX 應(yīng)用案例】單目深度估計(jì)

    ?Firefly所推出的NVIDIA系列的AIBOX可實(shí)現(xiàn)深度估計(jì),該技術(shù)是一種從單張或者多張圖像預(yù)測(cè)場(chǎng)景深度信息的技術(shù),廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域,尤其是在三維重建、場(chǎng)景理解和環(huán)境感知等任務(wù)中起到
    的頭像 發(fā)表于 03-19 16:33 ?329次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b>估計(jì)

    PTR5415藍(lán)牙模組性能與場(chǎng)景應(yīng)用深度解析

    PTR5415是基于Nordic最新nRF54L15芯片,專為物聯(lián)網(wǎng)和工業(yè)場(chǎng)景設(shè)計(jì)。 1、核心參數(shù)與硬件優(yōu)勢(shì) 芯片與協(xié)議:搭載nRF54L15SoC,支持藍(lán)牙6.0、LEAudio、Thread
    發(fā)表于 03-11 16:03

    航天宏圖PIE-DEM智能采編系統(tǒng)詳解

    當(dāng)衛(wèi)星鏡頭掠過青藏高原的冰川裂縫,當(dāng)遙感影像捕捉到亞馬遜雨林0.01℃的溫度變化,一場(chǎng)由深度學(xué)習(xí)驅(qū)動(dòng)的技術(shù)革命正在重塑遙感影像立體匹配技術(shù)獲取高精度DEM/DSM的方式。
    的頭像 發(fā)表于 03-11 09:20 ?626次閱讀
    航天宏圖PIE-DEM智能采編系統(tǒng)<b class='flag-5'>詳解</b>

    Bumblebee X 立體相機(jī)提升工業(yè)自動(dòng)化中的立體深度感知

    導(dǎo)航,物品檢測(cè),靈活避開障礙物,精準(zhǔn)拾取目標(biāo)物品,將其準(zhǔn)確無誤地放置在特定位置,同時(shí)有效優(yōu)化倉庫空間布局,提升作業(yè)效率。倉儲(chǔ)應(yīng)用3D視覺技術(shù)3D傳感器是支持現(xiàn)實(shí)場(chǎng)景深度
    的頭像 發(fā)表于 11-09 01:09 ?739次閱讀
    Bumblebee X <b class='flag-5'>立體</b>相機(jī)提升工業(yè)自動(dòng)化中的<b class='flag-5'>立體</b><b class='flag-5'>深度</b>感知

    立體視覺新手必看:英特爾? 實(shí)感? D421深度相機(jī)模組

    英特爾首款一體化立體深度模組,旨在將先進(jìn)的深度感應(yīng)技術(shù)帶給更廣泛的受眾 2024年9月24日?—— 英特爾? 實(shí)感? 技術(shù)再次突破界限,推出全新的英特爾? 實(shí)感? 深度相機(jī)模組D421
    的頭像 發(fā)表于 09-26 13:33 ?490次閱讀
    <b class='flag-5'>立體</b>視覺新手必看:英特爾? 實(shí)感? D421<b class='flag-5'>深度</b>相機(jī)模組

    可存儲(chǔ)500張人臉的雙目3D人臉識(shí)別模塊

    。HLK-FM888是一款紅外+可見光雙目人臉識(shí)別算法模組,內(nèi)嵌雙目3D活體檢測(cè)算法和基于大數(shù)據(jù)訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)動(dòng)態(tài)可見光識(shí)別算法,搭載高像素的攝像頭,在增強(qiáng)對(duì)環(huán)境光線的適應(yīng)性和
    的頭像 發(fā)表于 07-28 08:39 ?1597次閱讀
    可存儲(chǔ)500張人臉的<b class='flag-5'>雙目</b>3D人臉識(shí)別模塊

    深度學(xué)習(xí)模型有哪些應(yīng)用場(chǎng)景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個(gè)應(yīng)用場(chǎng)景中展現(xiàn)出其巨大的潛力和價(jià)值。這些應(yīng)用不僅改變了我們的日常生活,還推動(dòng)了科技進(jìn)步和產(chǎn)業(yè)升級(jí)。以下將詳細(xì)探討深度學(xué)習(xí)模型的20個(gè)主要應(yīng)用場(chǎng)
    的頭像 發(fā)表于 07-16 18:25 ?3731次閱讀

    鴻蒙開發(fā)Ability Kit程序訪問控制:使用位置控件

    位置控件使用直觀且易懂的通用標(biāo)識(shí),讓用戶明確地知道這是一個(gè)獲取位置信息的按鈕。這滿足了授權(quán)場(chǎng)景需要匹配用戶真實(shí)意圖的需求。只有當(dāng)用戶主觀愿意,并且明確了解使用
    的頭像 發(fā)表于 07-03 16:32 ?753次閱讀
    鴻蒙開發(fā)Ability Kit程序訪問控制:使用位置控件
    主站蜘蛛池模板: 亚洲高清免费在线观看 | 日本a级片在线播放 | 国模精品视频一区二区三区 | 国产精品777 | 色黄网站成年女人色毛片 | 免费超爽视频 | 激情婷婷综合 | 性叉叉| 欧美xxxxx喷潮 | 天天操综合视频 | 丁香婷婷九月 | 天堂在线中文无弹窗全文阅读 | 一级片免费视频 | 拍拍拍交性免费视频 | 在线观看高清视频 | 久久黄色一级片 | a级黄色毛片三个搞一 | 欧美97色 | 色女孩网站 | 日本黄大乳片免费观看 | 操妞网| 91在线免费观看网站 | 97色在线| 真人午夜a一级毛片 | 免费边摸边吃奶边叫床视频gif | 欧美三级不卡在线观线看高清 | 夜夜艹 | 色噜噜亚洲精品中文字幕 | 久久久噜久噜久久gif动图 | 天天爱天天做久久天天狠狼 | 欧美极品另类 | 精品三级三级三级三级三级 | 久久久久综合中文字幕 | 精品国产你懂的在线观看 | 88av视频在线 | 黄色午夜网站 | 国产精品一区牛牛影视 | 私色综合网 | 亚洲精品老司机综合影院 | 亚洲精品久久久久影 | 手机精品在线 |