在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用醫(yī)學(xué)三維圖像分割筆記本在MRI圖像中預(yù)測(cè)腦腫瘤

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Shokoufeh Monejzi Kou ? 2022-04-13 14:32 ? 次閱讀

圖像分割通過將數(shù)字圖像的表示形式轉(zhuǎn)換為更有意義、更易于分析的內(nèi)容,將數(shù)字圖像分割成多個(gè)部分。在醫(yī)學(xué)成像領(lǐng)域,圖像分割可以幫助識(shí)別器官和異常,測(cè)量它們,分類它們,甚至發(fā)現(xiàn)診斷信息。它通過使用從 x 射線、磁共振成像( MRI )、計(jì)算機(jī)斷層掃描( CT )、正電子發(fā)射斷層掃描( PET )和其他格式收集的數(shù)據(jù)來實(shí)現(xiàn)這一點(diǎn)。

為了實(shí)現(xiàn)能夠?yàn)橛美峁┧杈群托阅艿?a href="http://m.xsypw.cn/article/zt/" target="_blank">最新模型,您必須設(shè)置正確的環(huán)境,使用理想的超參數(shù)進(jìn)行訓(xùn)練,并對(duì)其進(jìn)行優(yōu)化以達(dá)到所需的精度。所有這些都可能很耗時(shí)。數(shù)據(jù)科學(xué)家和開發(fā)人員需要一套合適的工具來快速克服繁瑣的任務(wù)。這就是我們建立 NGC 目錄的原因。

NGC 目錄 是 GPU 優(yōu)化 AI 和 HPC 應(yīng)用程序和工具的集線器。 NGC 提供了對(duì)性能優(yōu)化容器的方便訪問,通過預(yù)訓(xùn)練模型縮短了模型開發(fā)時(shí)間,并提供了特定于行業(yè)的 SDK 來幫助構(gòu)建完整的 AI 解決方案和加快 AI 工作流。這些不同的資產(chǎn)可以用于各種用例,從計(jì)算機(jī)視覺語音識(shí)別到語言理解。潛在的解決方案涵蓋汽車、醫(yī)療保健、制造和零售等行業(yè)。

pYYBAGJWbtWACnrNAAItLiGsMkw091.png

圖 1 NGC 目錄, GPU 優(yōu)化人工智能軟件的集線器

基于 U-Net 的三維醫(yī)學(xué)圖像分割

在這篇文章中,我們將展示如何使用 醫(yī)學(xué)三維圖像分割筆記本 在 MRI 圖像中預(yù)測(cè)腦腫瘤。這個(gè)職位是適合任何人誰是新的人工智能和有一個(gè)特別的興趣在圖像分割,因?yàn)樗m用于醫(yī)學(xué)成像。 3D-U-Net 實(shí)現(xiàn)了三維體的無縫分割,具有較高的精度和性能。它可以用來解決許多不同的分割問題。

poYBAGJWbt2AbYm9AAD9q9P9Dq0607.png

圖 2 U-Net 模型概述

圖 2 顯示了 3du-Net 由收縮(左)和擴(kuò)張(右)路徑組成。它重復(fù)應(yīng)用未添加的卷積,然后使用最大池進(jìn)行下采樣。

深度學(xué)習(xí)中,卷積神經(jīng)網(wǎng)絡(luò)( CNN )是深度神經(jīng)網(wǎng)絡(luò)的一個(gè)子集,主要用于圖像識(shí)別和圖像處理。 CNN 使用深度學(xué)習(xí)來執(zhí)行生成性和描述性任務(wù),通常使用機(jī)器視覺以及推薦系統(tǒng)和自然語言處理。

CNNs 中的 Padding 指的是 CNN 內(nèi)核處理圖像時(shí)添加到圖像中的像素?cái)?shù)。未添加的 CNNs 意味著沒有像素添加到圖像中。

合用是 CNN 的一種下采樣方法。最大池是一種常見的池方法,它總結(jié)了功能最活躍的存在。擴(kuò)展路徑中的每一步都包括特征映射的上采樣和與壓縮路徑中相應(yīng)裁剪的特征映射的連接。

Requirements

此資源包含一個(gè) Dockerfile ,它擴(kuò)展了 TensorFlow NGC 容器并封裝了一些依賴項(xiàng)??梢允褂靡韵旅?a href="http://m.xsypw.cn/soft/special/" target="_blank">下載資源:

wget --content-disposition https://api.ngc.nvidia.com/v2/resources/nvidia/unet3d_medical_for_tensorflow/versions/20.06.0/zip -O unet3d_medical_for_tensorflow_20.06.0.zip除了這些依賴項(xiàng)之外,還需要以下組件:

NVIDIA 碼頭工人

NGC 最新 TensorFlow 集裝箱

NVIDIA 安培結(jié)構(gòu), NVIDIA 圖靈,或 NVIDIA 伏特 GPU

要使用具有張量核心的混合或 TF32 精度或使用 FP32 來訓(xùn)練模型,請(qǐng)使用腦腫瘤分割數(shù)據(jù)集上 3D U-Net 模型的默認(rèn)參數(shù)執(zhí)行以下步驟。

下載資源

通過單擊 資源頁 右上角的三個(gè)點(diǎn)手動(dòng)下載資源。

pYYBAGJWbuOALffBAADbKwlWE7o725.png

圖 3 NGC 目錄上 3D U-Net 資源的資源登錄頁

也可以使用以下 wget 命令:

wget --content-disposition https://api.ngc.nvidia.com/v2/resources/nvidia/unet3d_medical_for_tensorflow/versions/20.06.0/zip -O unet3d_medical_for_tensorflow_20.06.0.zip

構(gòu)建 U-Net TensorFlow NGC 容器

此命令使用 Dockerfile 創(chuàng)建一個(gè)名為 unet3d_tf 的 Docker 映像,自動(dòng)下載所有必需的組件。

docker build -t unet3d_tf 。

下載數(shù)據(jù)集

數(shù)據(jù)可在 腦腫瘤分割數(shù)據(jù)集 網(wǎng)站注冊(cè)獲得。應(yīng)下載數(shù)據(jù)并將其放置在容器中安裝 /data 的位置。

運(yùn)行容器

要在 NGC 容器中啟動(dòng)交互式會(huì)話以運(yùn)行預(yù)處理、訓(xùn)練和推斷,必須運(yùn)行以下命令。這將啟動(dòng)容器并將 。/data 目錄作為卷裝載到容器中的 /data 目錄,將 。/results 目錄裝載到容器中的 /results 目錄。

使用容器的優(yōu)點(diǎn)是它將所有必需的庫和依賴項(xiàng)打包到一個(gè)單獨(dú)的、隔離的環(huán)境中。這樣您就不必?fù)?dān)心復(fù)雜的安裝過程。

mkdir data
mkdir results
 
docker run --runtime=nvidia -it --shm-size=1g --ulimit memlock=-1 --ulimit stack=67108864 --rm --ipc=host -v ${PWD}/data:/data -v ${PWD}/results:/results -p 8888:8888 unet3d_tf:latest /bin/bash 

啟動(dòng)容器內(nèi)的筆記本

使用此命令在容器內(nèi)啟動(dòng) Jupyter 筆記本:

jupyter notebook --ip 0.0.0.0 --port 8888 --allow-root

使用以下命令將數(shù)據(jù)集移動(dòng)到容器內(nèi)的/ data 目錄。下載筆記本

wget --content-disposition https://api.ngc.nvidia.com/v2/resources/nvidia/med_3dunet/versions/1/zip -O med_3dunet_1.zip

然后,將下載的筆記本上傳到 JupyterLab 中,運(yùn)行筆記本的單元格對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,并對(duì)模型進(jìn)行訓(xùn)練、基準(zhǔn)測(cè)試和測(cè)試。

Jupyter 筆記本

通過運(yùn)行這個(gè) Jupyter 筆記本的細(xì)胞,你可以首先檢查下載的數(shù)據(jù)集并看到腦腫瘤圖像。然后,查看數(shù)據(jù)預(yù)處理命令,準(zhǔn)備數(shù)據(jù)進(jìn)行訓(xùn)練。下一步是訓(xùn)練模型,并使用訓(xùn)練過程中的檢查點(diǎn)作為預(yù)測(cè)步驟。最后,直觀地檢查預(yù)測(cè)函數(shù)的輸出。

檢查圖像

要檢查數(shù)據(jù)集,可以使用 nibabel ,這是一個(gè)提供對(duì)一些常見的醫(yī)學(xué)和神經(jīng)成像文件格式的讀/寫訪問的包。

通過運(yùn)行接下來的三個(gè)單元格,您可以使用 pip install 安裝 nibabel ,從數(shù)據(jù)集中選擇一個(gè)映像,并使用 matplotlib 從數(shù)據(jù)集中打印所選的第三個(gè)映像。您可以通過更改代碼中的圖像地址來檢查其他數(shù)據(jù)集圖像。

import nibabel as nib
import matplotlib.pyplot as plt
 
img_arr = nib.load('/data/MICCAI_BraTS_2019_Data_Training/HGG/BraTS19_2013_10_1/BraTS19_2013_10_1_flair.nii.gz').get_data()
 
def show_plane(ax, plane, cmap="gray", title=None):
  ax.imshow(plane, cmap=cmap)
  ax.axis("off")
 
  if title:
  ax.set_title(title)
  
(n_plane, n_row, n_col) = img_arr.shape
_, (a, b, c) = plt.subplots(ncols=3, figsize=(15, 5))
 
show_plane(a, img_arr[n_plane // 2], title=f'Plane = {n_plane // 2}')
show_plane(b, img_arr[:, n_row // 2, :], title=f'Row = {n_row // 2}')
show_plane(c, img_arr[:, :, n_col // 2], title=f'Column = {n_col // 2}') 

結(jié)果如圖 4 所示。

圖 4 .作為 Jupyter 筆記本的一部分包含在數(shù)據(jù)集中的圖像的示例輸出

數(shù)據(jù)預(yù)處理

dataset/preprocess_data.py 腳本將原始數(shù)據(jù)轉(zhuǎn)換為用于培訓(xùn)和評(píng)估的 TFRecord 格式。該數(shù)據(jù)集來自 2019 年布拉特挑戰(zhàn)賽 ,包含超過 3 TB 的多機(jī)構(gòu)、常規(guī)、臨床獲得、術(shù)前、多模式、膠質(zhì)母細(xì)胞瘤( GBM / HGG )和低級(jí)別膠質(zhì)瘤( LGG )的 MRI 掃描,并經(jīng)病理證實(shí)診斷。如果可用,還包括患者的總體生存率( OS )數(shù)據(jù)。這些數(shù)據(jù)是在訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù)集中構(gòu)建的。

圖像的格式是 nii.gz. NIfTI 是神經(jīng)成像的一種文件格式??梢酝ㄟ^運(yùn)行以下命令對(duì)下載的數(shù)據(jù)集進(jìn)行預(yù)處理:

python dataset/preprocess_data.py -i /data/MICCAI_BraTS_2019_Data_Training -o /data/preprocessed -v

處理后的圖像的最終格式是 tfrecord 。為了幫助您高效地讀取數(shù)據(jù),請(qǐng)序列化數(shù)據(jù)并將其存儲(chǔ)在一組文件中(每個(gè)文件大約 100 到 200 MB ),每個(gè)文件都可以線性讀取。如果數(shù)據(jù)是通過網(wǎng)絡(luò)傳輸?shù)?,這一點(diǎn)尤其正確。它還可以用于緩存任何數(shù)據(jù)預(yù)處理。 TFRecord 格式是一種用于存儲(chǔ)二進(jìn)制記錄序列的簡(jiǎn)單格式,它大大加快了數(shù)據(jù)加載過程。

使用默認(rèn)參數(shù)進(jìn)行培訓(xùn)

啟動(dòng) Docker 容器后,可以使用默認(rèn)的超參數(shù)(例如,{ 1 到 8 } GPU s { TF-AMP / FP32 / TF32 })開始單個(gè)折疊(折疊 0 )的訓(xùn)練:

Bash examples/unet3d_train_single{_TF-AMP}.sh

例如,要以 32 位精度( FP32 或 TF32 )在一個(gè) GPU 上以批大小 2 運(yùn)行,請(qǐng)運(yùn)行以下命令:

bash examples/unet3d_train_single.sh 1 /data/preprocessed /results 2

要訓(xùn)練具有混合精度( TF-AMP )的單折疊,每個(gè) GPU 有八個(gè) GPU 個(gè),每 GPU 批大小為 2 ,請(qǐng)運(yùn)行以下命令:

bash examples/unet3d_train_single_TF-AMP.sh 8 /data/preprocessed /results 2

培訓(xùn)績效基準(zhǔn)

可以通過運(yùn)行基準(zhǔn)腳本來評(píng)估培訓(xùn)績效:

bash examples/unet3d_{train,infer}_benchmark{_TF-AMP}.sh

此腳本使模型運(yùn)行并報(bào)告性能。例如,要在四個(gè) GPU 上使用批量為 2 的 TF-AMP 對(duì)培訓(xùn)進(jìn)行基準(zhǔn)測(cè)試,請(qǐng)運(yùn)行以下命令:

bash examples/unet3d_train_benchmark_TF-AMP.sh 4 /data/preprocessed /results 2

Predict

您可以使用測(cè)試數(shù)據(jù)集和 predict as exec 模式來測(cè)試模型。結(jié)果保存在 model_dir 目錄中, data_dir 是數(shù)據(jù)集的路徑:

python main.py --model_dir /results --exec_mode predict --data_dir /data/preprocessed_test

繪制預(yù)測(cè)結(jié)果

在下面的代碼示例中,您將從 results 文件夾打印所選結(jié)果之一:

import numpy as np
from mpl_toolkits import mplot3d
import matplotlib.pyplot as plt
data= np.load('/results/vol_0.npy')
def show_plane(ax, plane, cmap="gray", title=None):
  ax.imshow(plane, cmap=cmap)
  ax.axis("off")
  if title:
  ax.set_title(title) 
(n_plane, n_row, n_col) = data.shape
_, (a, b, c) = plt.subplots(ncols=3, figsize=(15, 5))
show_plane(a, data[n_plane // 2], title=f'Plane = {n_plane // 2}')
show_plane(b, data[:, n_row // 2, :], title=f'Row = {n_row // 2}')
show_plane(c, data[:, :, n_col // 2], title=f'Column = {n_col // 2}') 
圖 5 .模型預(yù)測(cè)的結(jié)果與圖 4 所示的實(shí)際圖像相對(duì)應(yīng)。

高級(jí)選項(xiàng)

對(duì)于那些希望探索此筆記本內(nèi)置高級(jí)功能的用戶,可以使用 -h 或 --help 查看 main 。 py 可用選項(xiàng)的完整列表。通過運(yùn)行下一個(gè)單元格,您可以看到如何更改此腳本的執(zhí)行模式和其他參數(shù)。使用此腳本,可以使用自定義的超參數(shù)執(zhí)行模型訓(xùn)練、預(yù)測(cè)、評(píng)估和推斷。

python main.py --help

main.py 參數(shù)可以更改以執(zhí)行不同的任務(wù),包括訓(xùn)練、評(píng)估和預(yù)測(cè)。

也可以使用默認(rèn)超參數(shù)訓(xùn)練模型。通過運(yùn)行 python main.py --help 命令,可以看到可以更改的參數(shù)列表,包括訓(xùn)練超參數(shù)。例如,在訓(xùn)練模式下,可以使用以下命令將學(xué)習(xí)速率從默認(rèn)的 0 。 0002 更改為 0 。 001 ,并將訓(xùn)練步驟從 16000 更改為 1000 :

python main.py --model_dir /results --exec_mode train --data_dir /data/preprocessed_test --learning_rate 0.001 --max_steps 1000

您可以運(yùn)行main.py中提供的其他執(zhí)行模式。例如,在本文中,我們通過運(yùn)行以下命令使用了python.py的預(yù)測(cè)執(zhí)行模式:

python main.py --model_dir /results --exec_mode predict --data_dir /data/preprocessed_test

總結(jié)和下一步

在這篇文章中,我們展示了如何使用一個(gè)簡(jiǎn)單的 NGC 目錄中的 Jupyter 筆記本 開始使用醫(yī)學(xué)成像模型。當(dāng)您從這個(gè) Jupyter 筆記本轉(zhuǎn)換到構(gòu)建您自己的醫(yī)學(xué)成像工作流時(shí),考慮使用 NVIDIA Clara 列。 Clara 列車 包括人工智能輔助注釋 API 和注釋服務(wù)器,可以無縫地集成到任何醫(yī)療查看器中,使其具有 AI 能力。培訓(xùn)框架包括分散式學(xué)習(xí)技術(shù),例如針對(duì) AI 工作流的聯(lián)合學(xué)習(xí)和轉(zhuǎn)移學(xué)習(xí)。

關(guān)于作者

Shokoufeh Monejzi Kouchak 是 NVIDIA 的技術(shù)營銷工程師,專注于深度學(xué)習(xí)模型。肖庫菲從亞利桑那州國家大學(xué)獲得了計(jì)算機(jī)工程學(xué)博士學(xué)位,她把重點(diǎn)放在駕駛行為分析和駕駛員注意力檢測(cè)上,并用深度學(xué)習(xí)模型。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    三維測(cè)量醫(yī)療領(lǐng)域的應(yīng)用

    三維測(cè)量醫(yī)療領(lǐng)域的應(yīng)用十分廣泛,為醫(yī)療診斷、治療及手術(shù)規(guī)劃等提供了重要的技術(shù)支持。以下是對(duì)三維測(cè)量醫(yī)療領(lǐng)域應(yīng)用的分析: 一、醫(yī)學(xué)影像的
    的頭像 發(fā)表于 12-30 15:21 ?302次閱讀

    三維可視化技術(shù)主要領(lǐng)域及其具體運(yùn)用

    三維可視化技術(shù)是一種強(qiáng)大的工具,它利用計(jì)算機(jī)圖形學(xué)、圖像處理和虛擬現(xiàn)實(shí)等技術(shù),將復(fù)雜的數(shù)據(jù)轉(zhuǎn)化為直觀的三維圖像,以便更好地理解和分析信息。這種技術(shù)多個(gè)領(lǐng)域都有廣泛的應(yīng)用,以下是幾個(gè)主
    的頭像 發(fā)表于 09-11 16:40 ?557次閱讀

    計(jì)算機(jī)視覺圖像融合

    許多計(jì)算機(jī)視覺應(yīng)用(例如機(jī)器人運(yùn)動(dòng)和醫(yī)學(xué)成像),需要將多個(gè)圖像的相關(guān)信息整合到單一圖像。這
    的頭像 發(fā)表于 08-01 08:28 ?833次閱讀
    計(jì)算機(jī)視覺<b class='flag-5'>中</b>的<b class='flag-5'>圖像</b>融合

    起點(diǎn),經(jīng)過點(diǎn),終點(diǎn),點(diǎn)xyz,畫三維圓弧。

    大家好!已知,起點(diǎn),經(jīng)過點(diǎn),終點(diǎn),點(diǎn)xyz,畫三維圓弧。在三維圖片框里面畫。該如何實(shí)現(xiàn)?甚至三維點(diǎn),直線,圓弧,圓。都可以畫。
    發(fā)表于 07-17 21:33

    圖像語義分割的實(shí)用性是什么

    圖像語義分割是一種重要的計(jì)算機(jī)視覺任務(wù),它旨在將圖像的每個(gè)像素分配到相應(yīng)的語義類別。這項(xiàng)技術(shù)
    的頭像 發(fā)表于 07-17 09:56 ?574次閱讀

    圖像分割和語義分割的區(qū)別與聯(lián)系

    圖像分割和語義分割是計(jì)算機(jī)視覺領(lǐng)域中兩個(gè)重要的概念,它們圖像處理和分析中發(fā)揮著關(guān)鍵作用。 1. 圖像
    的頭像 發(fā)表于 07-17 09:55 ?1247次閱讀

    圖像分割與目標(biāo)檢測(cè)的區(qū)別是什么

    的區(qū)別。 定義 圖像分割是將圖像劃分為若干個(gè)區(qū)域或?qū)ο蟮倪^程,這些區(qū)域或?qū)ο缶哂邢嗨频膶傩裕珙伾⒓y理或形狀。圖像分割的目的是將
    的頭像 發(fā)表于 07-17 09:53 ?1612次閱讀

    圖像分割與語義分割的CNN模型綜述

    圖像分割與語義分割是計(jì)算機(jī)視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語義含義的區(qū)域或?qū)ο?。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,
    的頭像 發(fā)表于 07-09 11:51 ?1238次閱讀

    機(jī)器人視覺技術(shù)圖像分割方法有哪些

    機(jī)器人視覺技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)等多個(gè)學(xué)科。圖像分割是機(jī)器人視覺技術(shù)的一個(gè)重要環(huán)節(jié),它的目標(biāo)是從一幅
    的頭像 發(fā)表于 07-04 11:34 ?1200次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)圖像醫(yī)學(xué)診斷的優(yōu)勢(shì)

    通過模擬人腦視覺皮層的工作機(jī)制,實(shí)現(xiàn)對(duì)圖像數(shù)據(jù)的高效處理,特別是圖像分類、目標(biāo)檢測(cè)、圖像分割以及醫(yī)學(xué)
    的頭像 發(fā)表于 07-01 15:59 ?1456次閱讀

    泰來三維|三維激光掃描技術(shù)古建筑保護(hù)的應(yīng)用

    通過三維激光掃描技術(shù),可以快速獲取古建筑的精確三維模型。文物保護(hù)與修復(fù)過程,利用三維模型可以更加全面、準(zhǔn)確地記錄古建筑的損傷情況,并輔助
    的頭像 發(fā)表于 06-21 09:15 ?677次閱讀
    泰來<b class='flag-5'>三維</b>|<b class='flag-5'>三維</b>激光掃描技術(shù)<b class='flag-5'>在</b>古建筑保護(hù)<b class='flag-5'>中</b>的應(yīng)用

    激光距離選通三維成像技術(shù)研究進(jìn)展綜述

    隨著人工智能(AI)時(shí)代的到來,同時(shí)獲得反映目標(biāo)輻射特性和紋理特征的高分辨率強(qiáng)度圖像以及反映目標(biāo)和所處場(chǎng)景的三維空間信息的稠密點(diǎn)云數(shù)據(jù)/三維圖像的激光相機(jī)雷達(dá)技術(shù)已成為激光雷達(dá)的發(fā)展趨勢(shì)。
    的頭像 發(fā)表于 05-28 10:26 ?3406次閱讀
    激光距離選通<b class='flag-5'>三維</b>成像技術(shù)研究進(jìn)展綜述

    常見的醫(yī)學(xué)圖像讀取方式和預(yù)處理方法

    基于深度學(xué)習(xí)做醫(yī)學(xué)圖像數(shù)據(jù)分析,例如病灶檢測(cè)、腫瘤或者器官分割等任務(wù),第一步就是要對(duì)數(shù)據(jù)有一個(gè)大概的認(rèn)識(shí)。但是我剛剛?cè)腴T醫(yī)學(xué)
    發(fā)表于 04-19 11:43 ?1044次閱讀
    常見的<b class='flag-5'>醫(yī)學(xué)</b><b class='flag-5'>圖像</b>讀取方式和預(yù)處理方法

    全堅(jiān)固筆記本丨工業(yè)筆記本筆記本相較于普通筆記本有哪些優(yōu)勢(shì)?

    筆記本和普通筆記本設(shè)計(jì)和性能方面存在顯著差異,筆記本相較于普通
    的頭像 發(fā)表于 04-07 09:32 ?1249次閱讀

    泰來三維|文物三維掃描,文物三維模型怎樣制作

    制作的呢,今天和大家聊聊,三維掃描技術(shù)文物三維掃描文物三維模型的建立。 1、數(shù)據(jù)采集與處理 工作流程 ?原始三維數(shù)據(jù)采集 ?原始
    的頭像 發(fā)表于 03-12 11:10 ?754次閱讀
    泰來<b class='flag-5'>三維</b>|文物<b class='flag-5'>三維</b>掃描,文物<b class='flag-5'>三維</b>模型怎樣制作
    主站蜘蛛池模板: 成人国内精品久久久久影院 | 激情五月婷婷综合网 | 女人张开腿让男人捅爽 | 狠狠插天天干 | 五月婷婷综合激情网 | 欧美日韩一日韩一线不卡 | 加勒比精品久久一区二区三区 | 午夜香港三级在线观看网 | 国产黄网站 | 男女交性视频播放视频视频 | 成年ssswww中国女人 | 欧美一区亚洲二区 | 天天操电影 | 一个色中文字幕 | 国产精品网址你懂的 | 国内精品91久久久久 | 亚洲成人免费观看 | 天堂视频免费在线观看 | 69日本人xxxxxxxx18 | 欧美freesex交| 国产午夜亚洲精品 | 亚洲a在线观看 | 五月婷婷深爱 | 免费超爽视频 | 亚洲人成人77777网站 | 天天色国产| 在线免费观看你懂的 | 视频在线观看一区二区三区 | 久久五月女厕所一区二区 | 91视频观看 | 中国一级生活片 | 香蕉网影院在线观看免费 | 久久综合图片 | 色丁香在线 | 一本高清在线 | 男人的天堂黄色 | 婷婷六月综合 | 亚洲色图27p| 黄色网址大全免费 | 国产精品久久久久久久久齐齐 | 香蕉久久夜色精品国产2020 |