在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

標(biāo)準(zhǔn)的機(jī)器學(xué)習(xí)流程如何玩出新花樣

WpOh_rgznai100 ? 來(lái)源:陳翠 ? 2019-07-07 10:52 ? 次閱讀

近日,CSDN與數(shù)字經(jīng)濟(jì)人才發(fā)展中心聯(lián)合主辦的第一屆CTA核心技術(shù)及應(yīng)用峰會(huì)在杭州開(kāi)啟。首屆CTA核心技術(shù)及應(yīng)用峰會(huì)圍繞人工智能,邀請(qǐng)技術(shù)領(lǐng)航者,與開(kāi)發(fā)者共同探討機(jī)器學(xué)習(xí)和知識(shí)圖譜的前沿研究及應(yīng)用。在本次機(jī)器學(xué)習(xí)專場(chǎng)中,來(lái)自海康威視研究院前研技術(shù)部的負(fù)責(zé)人謝迪為我們帶來(lái)了題為《How to Explore in Machine Learning Pipeline》(機(jī)器學(xué)習(xí)流程研究)的精彩演講。

在機(jī)器學(xué)習(xí)時(shí)代,AI相關(guān)工作都是聚焦于具體的流程,如數(shù)據(jù)收集、模型訓(xùn)練、模型配置等。AI從業(yè)/從事人員眾多,但大家做的事情很多都大同小異,這其實(shí)可以總結(jié)成一個(gè)標(biāo)準(zhǔn)的pipeline。但是,如何在機(jī)器學(xué)習(xí)的流水線上做出和別人不一樣的工作,還是需要很多技巧。這次,謝迪將會(huì)為大家分享如何在標(biāo)準(zhǔn)的機(jī)器學(xué)習(xí)流水線上,通過(guò)多年積累獲得的洞見(jiàn),提升對(duì)于具體應(yīng)用的認(rèn)識(shí)。

標(biāo)準(zhǔn)機(jī)器學(xué)習(xí)Pipeline

如圖所示,這是一個(gè)標(biāo)準(zhǔn)的機(jī)器學(xué)習(xí)流水線,我們可以收集數(shù)據(jù)、提取特征、訓(xùn)練分類器等。幾年前深度學(xué)習(xí)還沒(méi)有火的時(shí)候,我們靠人工提取算子,之后進(jìn)行訓(xùn)練,最后得到我們想要的模型,去解決具體問(wèn)題。

隨著深度學(xué)習(xí)的興起,中間的兩塊已經(jīng)被神經(jīng)網(wǎng)絡(luò)統(tǒng)一,但是我們認(rèn)為在工業(yè)界,要得到真正工作的機(jī)器學(xué)習(xí)pipeline,還有兩個(gè)環(huán)節(jié)我們需要特別注意。其中包括數(shù)據(jù)的環(huán)節(jié),因?yàn)閿?shù)據(jù)并不是現(xiàn)成的,實(shí)際上現(xiàn)在人工智能深入發(fā)展,對(duì)公司來(lái)說(shuō)很大部分的工作還是集中在數(shù)據(jù)標(biāo)定上,有了標(biāo)定的數(shù)據(jù)之后才能進(jìn)行訓(xùn)練,最后得到一個(gè)模型。在??低?,很多的應(yīng)用以前是放在后端的,但現(xiàn)在都在逐漸向往邊緣端轉(zhuǎn)移,所以我們有相當(dāng)一部分的工作是在邊緣端的深度神經(jīng)模型以及工業(yè)機(jī)器人的配置上。

機(jī)器學(xué)習(xí)pipeline實(shí)踐

今天,我將和大家分享三個(gè)方面的工作,聚焦于標(biāo)注、訓(xùn)練和部署,這三個(gè)環(huán)節(jié)分別代表了信息的生成、提煉、重新整合以及信息的去冗余。

▌1. 標(biāo)注

通用函數(shù)近似器

這是第一項(xiàng)工作。我們知道,深度神經(jīng)網(wǎng)絡(luò)相比于傳統(tǒng)的 SVM 或其他的線性模型,更類似于全局函數(shù)近似器,即輸入 ground truth,它就能輸出你想要的結(jié)果。

我們可以給定一個(gè)標(biāo)注,輸入更多信息量,比如一個(gè)人在圖中的位置、關(guān)鍵點(diǎn)集合,甚至是一個(gè)非常稠密的網(wǎng)格。這是一個(gè)信息從少到多的過(guò)程,無(wú)論信息多復(fù)雜,在神經(jīng)網(wǎng)絡(luò)下都可以輸出你想要的結(jié)果。換一個(gè)角度理解,神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)是非常敏感的。

多尺度對(duì)GT的影響

在安防場(chǎng)景中,我們最關(guān)心的是人和車。以行人檢測(cè)為例,在一個(gè)場(chǎng)景中,我們會(huì)關(guān)心各個(gè)尺度的行人,但是神經(jīng)網(wǎng)絡(luò)對(duì)不同對(duì)象比較敏感,我們現(xiàn)在檢測(cè)的框架是基于邊界框的,對(duì)于大尺度的行人來(lái)說(shuō),紅框標(biāo)定行人沒(méi)有問(wèn)題,但是小尺度的行人標(biāo)定存在兩個(gè)問(wèn)題,第一個(gè)問(wèn)題是小尺度的對(duì)象本身提供的信息非常有限,第二個(gè)是小尺度對(duì)象的真值框差異非常大。

如右圖所示,我們做了一個(gè)實(shí)驗(yàn),讓10個(gè)標(biāo)定人員進(jìn)行標(biāo)定,藍(lán)色表示 Bounding-box (邊界框)標(biāo)定方法,黃色是基于線段的標(biāo)定方法,對(duì)于大尺度對(duì)象和小尺度對(duì)象,ground truth 的平均 IOU顯示如圖所示??梢钥吹?,大尺度對(duì)象明顯優(yōu)于小尺度對(duì)象?;谏窠?jīng)網(wǎng)絡(luò)對(duì)信息產(chǎn)生的方式非常敏感的前提來(lái)說(shuō),我們認(rèn)為影響小目標(biāo)檢測(cè)的問(wèn)題之一,可能是在于信息生成方式的歧義性。

TLL小尺度行人檢測(cè)

為此我們提出了TLL。它的核心想法非常簡(jiǎn)單,即 Bounding-box 表示方法會(huì)影響極小目標(biāo)的檢出率,所以我們需要為小目標(biāo)單獨(dú)設(shè)計(jì)一種生成信息的方式,我們通過(guò) Bounding-box 上下兩點(diǎn)中心,做了一個(gè)連線,即把原來(lái)用一個(gè) Bounding-box 表示一個(gè)物體的表示方式,變成了用一個(gè)線段表示一個(gè)人體,上端表示頭,下端表示人與頭之間的中心。

網(wǎng)絡(luò)結(jié)構(gòu)我們使用了 Hourglass 的沙漏結(jié)構(gòu)。當(dāng)然,多尺度是影響目標(biāo)檢測(cè)的原因,所以我們也是使用了多尺度信息聚合的方式。

我們的網(wǎng)絡(luò)輸出是三個(gè)特征圖,分別表示人頭、兩腳和人體的分圖。最后,我們用后處理的方法,通過(guò)二分圖匹配得到最終的匹配結(jié)果,即圖中虛線所示直線。

但在實(shí)際場(chǎng)景中,我們發(fā)現(xiàn)當(dāng)人群密度比較密的時(shí)候,使用二分圖匹配會(huì)出現(xiàn)如圖所示的交叉結(jié)果,所以我們引入了馬爾科夫隨機(jī)場(chǎng),不鼓勵(lì)交叉情況的產(chǎn)生,這樣就可以獲得更好的結(jié)果,有效地避免了交叉產(chǎn)生。

在測(cè)試中,我們希望小目標(biāo)的分辨率能夠在10像素以下,越小越好,因?yàn)樵叫≡侥荏w現(xiàn)算法的優(yōu)勢(shì),而對(duì)于檢測(cè)過(guò)程中的幀漏檢,相比基于光流的顯示聚合方法,隱式的信息聚合方法可以進(jìn)一步的提高檢出率。

這是量化的結(jié)果,顯示性能非常好。有個(gè)非常有趣的現(xiàn)象,我們僅僅是簡(jiǎn)單地改變了標(biāo)注的方式,本質(zhì)上即信息生成的方式,在嚴(yán)重遮擋的情況下,依然取得了更好的性能。

可以看到,無(wú)論在嚴(yán)重遮擋、遠(yuǎn)景,還是不規(guī)則的長(zhǎng)寬比的配置下,這個(gè)方法還是有一定的優(yōu)勢(shì)。

這是定性的一些結(jié)果,像圖中這樣檢測(cè)難度非常大的情況也可以檢測(cè)出,稠密的行人也沒(méi)有漏檢。我們?cè)谝恍┠繕?biāo)項(xiàng)目中落地了這一方法,如在上海陸家嘴的環(huán)形天橋上,攝像頭能夠精確地統(tǒng)計(jì)天橋上行人的數(shù)量。

這個(gè)工作我們從 2017 年開(kāi)始做,最初的目標(biāo)檢測(cè)用到了兩階段的方法,代表有 FastCNN。一步檢測(cè)的代表框架有 SSD 和 YOLO,現(xiàn)在甚至有人在關(guān)注 Anchor-free 的方法,包括 FCOS、ReqPoints 等。這都是大家嘗試找到一種不一樣的邊界框產(chǎn)生方式,能夠更好地指導(dǎo)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并挖掘出原始數(shù)據(jù)中有價(jià)值的信息并用到具體的應(yīng)用中。

▌2. 訓(xùn)練

神經(jīng)網(wǎng)絡(luò)訓(xùn)練洞見(jiàn)

我分享的第二個(gè)工作是如何訓(xùn)練神經(jīng)網(wǎng)絡(luò),或者神經(jīng)網(wǎng)絡(luò)的本質(zhì)是什么。訓(xùn)練神經(jīng)網(wǎng)絡(luò)有很多初始化方法和優(yōu)化器,在訓(xùn)練中對(duì)信息進(jìn)行歸一化。

從信息傳播的角度看,我們認(rèn)為這些方法本質(zhì)上是保持訓(xùn)練過(guò)程中或訓(xùn)練初始階段的恒常性。恒常性可以分為兩種,一種是靜態(tài)恒常性,一種是動(dòng)態(tài)恒常性。靜態(tài)恒常性一般用在初始階段,也就是初始化即可;動(dòng)態(tài)恒常性就是優(yōu)化的過(guò)程中,每一輪迭代都讓信息的某種統(tǒng)計(jì)量保持不變。大家比較熟悉的初始化方法,包括Xavier、MSra、LSUV都屬于靜態(tài)恒常性,所有層保持在固定的數(shù)量級(jí)上,讓初始權(quán)重的某些統(tǒng)計(jì)量保持在統(tǒng)一數(shù)量級(jí)上;動(dòng)態(tài)恒常性包括 WN、BN、LN 等。但無(wú)論是哪種方式,無(wú)非就是設(shè)計(jì)某種規(guī)劃,能夠讓信息的量級(jí)在某一個(gè)傳播方向上保持不變,當(dāng)然不是數(shù)字上的不變,而是統(tǒng)計(jì)量上的不變,因?yàn)樯窠?jīng)網(wǎng)絡(luò)的訓(xùn)練有點(diǎn)類似于蝴蝶效應(yīng),所以恒常性非常重要。

四個(gè)觀點(diǎn)

先講我們的四個(gè)觀點(diǎn):

第一,我們訓(xùn)練一個(gè)真正深的網(wǎng)絡(luò),批歸一化是一個(gè)必要條件;

第二,相較于靜態(tài)恒常性,動(dòng)態(tài)恒常性更加重要;

第三,相較于單個(gè)方向保持動(dòng)態(tài)恒常性,在訓(xùn)練時(shí)保持兩個(gè)方向,同時(shí)保持動(dòng)態(tài)的恒常性,才是解決這個(gè)問(wèn)題的關(guān)鍵;

最后,如果模型非常深,可能還需要顯示對(duì)傳播的信號(hào)進(jìn)行調(diào)控。

退化問(wèn)題

大家可能說(shuō),用了ResNet 好像沒(méi)有發(fā)生很難訓(xùn)練的情況,但是康奈爾大學(xué)的一篇文章指出,ResNet 本質(zhì)上是指數(shù)級(jí)淺網(wǎng)絡(luò)的聚合,如左圖所示,我們的工作是對(duì)沒(méi)有任何殘差結(jié)構(gòu)網(wǎng)絡(luò)的訓(xùn)練方法。這種方法訓(xùn)練過(guò)程中會(huì)產(chǎn)生退化問(wèn)題,即當(dāng)以網(wǎng)絡(luò)的層數(shù)作為橫坐標(biāo)、性能作為縱坐標(biāo),結(jié)果會(huì)如右圖所示,網(wǎng)絡(luò)層數(shù)小于等于20層時(shí),簡(jiǎn)單堆疊網(wǎng)絡(luò)層數(shù)會(huì)產(chǎn)生增益性能,但層數(shù)超過(guò)20,收斂率會(huì)大大下降,性能變差,這就是著名的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練退化的問(wèn)題。我們的工作其實(shí)沒(méi)有解決這個(gè)問(wèn)題,只是緩解了這一問(wèn)題,但希望可以給從業(yè)人員一些啟發(fā)。

內(nèi)在因素

我們認(rèn)為原因可能有兩個(gè),第一是批歸一化的偽歸一化問(wèn)題,前面的信號(hào)傳遞沒(méi)有問(wèn)題,在每一層卷積以后,信號(hào)雖然有時(shí)會(huì)被放大,有時(shí)會(huì)被縮小,但是經(jīng)過(guò)批歸一化以后,分布又能夠被拉回來(lái)。但是如果推導(dǎo)反向評(píng)估顯示,會(huì)發(fā)現(xiàn)當(dāng)層數(shù)非常深時(shí),誤差累積的效應(yīng)會(huì)讓反向傳播誤差的分布越來(lái)越偏,造成訓(xùn)練出問(wèn)題。

第二個(gè)原因可能更加深刻一點(diǎn),我們知道反向傳播的信號(hào)其實(shí)是和輸出相對(duì)于輸入息息相關(guān)。一般的工作可能推導(dǎo)到卷積層,我們還考慮了 BN 層,推導(dǎo)如圖所示,在 MXM 層的方陣?yán)锩?,左上角兩個(gè)數(shù)值很有可能取到 0 或近似 0。底部的示意圖表示一個(gè)信息量比較豐富的信號(hào),在反向傳播時(shí),一層一層往回傳會(huì)造成信號(hào)特定維度上的信息丟失。我們認(rèn)為信息的丟失也會(huì)破壞動(dòng)態(tài)恒常性,造成沒(méi)有殘差結(jié)構(gòu)深度網(wǎng)絡(luò)難以訓(xùn)練。

解決方案1:正規(guī)化

找到實(shí)用且有效的方法非常難,我們首先想到了一個(gè)數(shù)學(xué)公式,如果線性變化位于一個(gè)正交權(quán)上,就能獲得輸入和輸出向量之間范數(shù)上的幅值等價(jià)性。但是我們發(fā)現(xiàn),如果強(qiáng)制要求權(quán)重位于正交基上,很大程度會(huì)限制神經(jīng)網(wǎng)絡(luò)解空間的范圍。我們用正交正則的思路替代 LR,去解決這個(gè)問(wèn)題。

我們希望在反向傳播時(shí),信號(hào)的幅值能夠位于比較穩(wěn)定的范圍內(nèi)。由于各種應(yīng)用不同,卷積神經(jīng)網(wǎng)絡(luò)會(huì)對(duì)應(yīng)不同的超參數(shù),輸入和輸出通道的不同等原因也會(huì)使得維度上出現(xiàn)一些問(wèn)題。比如,在三維空間中找到四個(gè)相互正交的向量,在數(shù)學(xué)上是不可行的。對(duì)于輸入維度小于輸出的情況,需要要進(jìn)行分組,讓每個(gè)組的 din 大于等于 dout。

解決方案2:調(diào)制

第二個(gè)解決方案想法比較簡(jiǎn)單,就是對(duì)信號(hào)進(jìn)行調(diào)制。在我們推導(dǎo)的公式中,為每一層設(shè)計(jì)一個(gè)符合該層的放大因子或縮小因子,該因子取值由該層的誤差輸出和輸入的比值決定。此方法可以在訓(xùn)練一個(gè)沒(méi)有殘差的一百層網(wǎng)絡(luò)的初始階段使用。

實(shí)驗(yàn)結(jié)果

這是我們的一些實(shí)驗(yàn)的結(jié)果,最左圖是每一層的 weights 相關(guān)度的曲線圖,大家可以看到,綠色表示正交正則,藍(lán)色表示權(quán)重衰減,用了正交正則以后,位置之間的夾角較大,夾角越大,相關(guān)度越低,此方法有效地保持了 weights 之間的低相關(guān)度。

右邊的兩幅圖是反向傳播的誤差性浮值的曲線。同樣地,藍(lán)色是權(quán)重衰減的方法,綠色是正交正則方法,可以看到正交正則可以適當(dāng)放大信號(hào),有效保留反向傳播中有用的信號(hào),這些有用的部分,我們認(rèn)為是能夠讓網(wǎng)絡(luò)正常訓(xùn)練的關(guān)鍵因素。

我們對(duì) SGD、正交正則和其他的一些自適應(yīng)方法等進(jìn)行比較,發(fā)現(xiàn)我們的方法能夠獲得較好的性能,當(dāng)層數(shù)到達(dá) 110 層時(shí),很多方法已經(jīng)無(wú)法訓(xùn)練了,但我們的方法還是可以繼續(xù)收斂,并可以用在殘差網(wǎng)絡(luò)里,但是對(duì)性能的提升不是很明顯。

在其他人的工作中,我們也發(fā)現(xiàn)了類似的結(jié)論。BigGan 提到正交正則有利于 Gan 網(wǎng)絡(luò)的穩(wěn)定性。LARS 也提出了分層學(xué)習(xí)力的思想,只不過(guò)它使用了 weight 幅值與其梯度幅值的比值。

部署

▌模型壓縮方法

以下的工作是模型部署。我們有很多攝像頭產(chǎn)品,所以壓縮方法是重中之重。

我今天要講的是輕量級(jí)算子的相關(guān)工作,動(dòng)機(jī)在于卷積是信息聚合的一種方式,可以分成兩個(gè)階段,一個(gè)是確定感受野,第二是確定兩個(gè)向量之間的內(nèi)積。3X3 的卷積既能滿足感受野,也能兼顧 flops,所以大多數(shù)卷積是 3X3。

但是,我們是否能找到一個(gè) 1X1 的方式替代原來(lái)的卷積神經(jīng)網(wǎng)絡(luò)呢?答案是有的。那就是Shift操作,它可以把某一層的特征圖進(jìn)行平移,然后用 1X1 進(jìn)行信息聚合,好處是沒(méi)有額外的計(jì)算量。

因?yàn)樽畛醯?shift CNN 需要人工確定平移的方向和大小,但我們想要通過(guò)自適應(yīng)去學(xué)習(xí)平移方向,同時(shí)保持特征圖不動(dòng),因?yàn)樘卣鲌D移動(dòng)會(huì)產(chǎn)生一定代價(jià),所以我們用雙向性插值,把平移的量切換為連續(xù)的浮點(diǎn)值,然后增加了一個(gè)鼓勵(lì)稀疏的正則。

我們根據(jù)這個(gè)基本思想設(shè)計(jì)了一些基本模塊,結(jié)合了下采樣、多尺度融合等。

這是基于Unsigned Block做融合,用 4 領(lǐng)域的 shift 操作代替了 8 領(lǐng)域的 shift 操作。

我們還設(shè)計(jì)了兼顧效率的網(wǎng)絡(luò)結(jié)構(gòu),以一種反規(guī)約的順序進(jìn)行 shift 卷積,增加了感受野的復(fù)雜度和聚合的復(fù)雜度,產(chǎn)生更好的效果,效率提升,跑得速度更快。

這是與 Mobilenet 和 ShuffleNet 性能比較。

這是我們對(duì)隨機(jī)選取的六層網(wǎng)絡(luò)進(jìn)行可視化的結(jié)果,圈越大表示特征圖越多,占比越高。統(tǒng)計(jì)顯示,約 70% 的分類問(wèn)題特征圖是不需要移動(dòng)的,這非常有趣。

這是上個(gè)月 MobileNetV3 的工作,我們的想法與之不謀而合:模塊放置在深度濾波器的拓展之后,以將注意力應(yīng)用于最大的表示......

最后是四點(diǎn)總結(jié):

第一點(diǎn),我們認(rèn)為現(xiàn)在的深度學(xué)習(xí)框架中,模型對(duì)信息生成的方式非常敏感,可以考慮在把信息“喂”給模型之前,如何讓信息的呈現(xiàn)方式歧義變小,這樣可以獲得更好的結(jié)果。

第二點(diǎn),邊界框可能已經(jīng)過(guò)時(shí)了,我們需要想一些更加優(yōu)雅、優(yōu)美的表示方式。

第三點(diǎn),我們認(rèn)為訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),動(dòng)態(tài)恒常性是一個(gè)關(guān)鍵因素。

最后一點(diǎn),對(duì)于芯片設(shè)計(jì)者來(lái)說(shuō),過(guò)多的算子會(huì)導(dǎo)致電路更復(fù)雜,就像檢測(cè)框架會(huì)趨向于過(guò)程簡(jiǎn)化,我們認(rèn)為算子也會(huì)進(jìn)行收斂,以后的神經(jīng)網(wǎng)絡(luò)可能只有 1X1 的卷積,加上其他的操作就能夠進(jìn)行各種智能應(yīng)用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31536

    瀏覽量

    270344
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8441

    瀏覽量

    133087

原文標(biāo)題:如何在標(biāo)準(zhǔn)的機(jī)器學(xué)習(xí)流程上玩出新花樣?

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    LED顯示屏企業(yè)十五“招”新花樣

    顯示屏企業(yè)早就已經(jīng)玩開(kāi)了,玩出了好多新花樣,可以概括為:5大新顯屏、5大新應(yīng)用、5大新模式。
    發(fā)表于 12-15 09:23 ?1255次閱讀

    京東方將顯示屏玩出新花樣 先于日本試水

    近日,京東方的一款黑科技——物聯(lián)網(wǎng)透明顯示系統(tǒng)整體解決方案在日本引起關(guān)注,傳統(tǒng)的顯示屏被玩出新花樣
    發(fā)表于 01-19 10:39 ?837次閱讀

    C語(yǔ)言單鏈表的應(yīng)用

    最近在看一些開(kāi)源項(xiàng)目,大佬的思路還是很值得去學(xué)習(xí),今天就簡(jiǎn)單介紹一下單鏈表的應(yīng)用,配合回調(diào)函數(shù)可以玩出新花樣,廢話不多說(shuō)直接看代碼!
    發(fā)表于 02-17 09:22 ?450次閱讀

    【FPGA設(shè)計(jì)實(shí)例】用JTAG讓你的FPGA玩出新花樣

    本帖最后由 eehome 于 2013-1-5 09:46 編輯 用JTAG讓你的FPGA玩出新花樣第1部分:JTAG是什么?第2部分:JTAG如何的工作第3部分:查詢JTAG鏈第4部分:運(yùn)行
    發(fā)表于 03-20 15:03

    如何把手中的這顆LED燈玩出新花樣

    學(xué)會(huì)了如何點(diǎn)亮LED燈,那么接下來(lái)的就是如何把手中的這顆LED燈玩出新花樣,在上一篇文章的基礎(chǔ)上這次我加入了按鍵去抖和LED呼吸燈的程序。根據(jù)電路原理圖可知,按鍵一端分別連接PA0和PA1,另一端連接GND。也就是說(shuō)當(dāng)PA0或PA1按下的時(shí)候,按鍵與GND導(dǎo)通,使得IO端口短接到...
    發(fā)表于 01-24 07:35

    電池新創(chuàng)意 環(huán)保新花樣

    電池新創(chuàng)意 環(huán)保新花樣 核心提示:正是人們對(duì)環(huán)保觀念的日漸深入,回收廢舊電池在不知不覺(jué)間成了習(xí)慣。雖然
    發(fā)表于 03-22 08:32 ?943次閱讀

    谷歌人工智能又出新花樣 DeepMind為機(jī)器人“造夢(mèng)”

    谷歌人工智能又出新花樣 DeepMind為機(jī)器人造夢(mèng) 隨著神經(jīng)科學(xué)揭示了在夢(mèng)中鞏固記憶的重要性,谷歌人工智能(AI)公司DeepMind開(kāi)創(chuàng)了一種新技術(shù),讓機(jī)器人做夢(mèng),目的是提高學(xué)習(xí)
    發(fā)表于 11-30 11:34 ?1082次閱讀

    房地產(chǎn)業(yè)引用VR技術(shù) 玩出哪些新花樣?

    將項(xiàng)目的效果呈現(xiàn)在看房者面前。下面就來(lái)談一下,VR結(jié)合房地產(chǎn)玩出新花樣。 VR模擬規(guī)劃,保證整體結(jié)構(gòu),滿足開(kāi)發(fā)商要求 建筑結(jié)構(gòu)越來(lái)越復(fù)雜,使得現(xiàn)有的建筑結(jié)構(gòu)計(jì)算和計(jì)算機(jī)輔助設(shè)計(jì)已經(jīng)無(wú)法準(zhǔn)確的測(cè)試建筑整體結(jié)構(gòu)安全,也
    的頭像 發(fā)表于 03-30 10:53 ?3502次閱讀

    自動(dòng)筆玩出新花樣_首支磁力控制自動(dòng)筆亮相

    自動(dòng)鉛筆是一種相當(dāng)常見(jiàn)的文具,但最近在Kickstarter上亮相的Magno卻把自動(dòng)筆玩出新花樣。它號(hào)稱是世界上第一支磁力控制的自動(dòng)鉛筆,位置精度遠(yuǎn)勝于其他對(duì)手。Magno由高品質(zhì)鋁合金所打造
    的頭像 發(fā)表于 04-03 06:02 ?3008次閱讀

    生物識(shí)別玩出新花樣 “腦指紋”也能刷?

    生物識(shí)別的特性使它一出現(xiàn)便成為21世紀(jì)的新寵,面部、聲音或指紋等技術(shù)變得越來(lái)越重要。隨著科技的不斷發(fā)展,如今生物識(shí)別玩出新花樣
    發(fā)表于 05-02 16:12 ?2681次閱讀

    互動(dòng)投影技術(shù)與ARVR結(jié)合在一起 玩出了很多新花樣

    互動(dòng)投影技術(shù)的應(yīng)用隨著2010的世博會(huì)過(guò)后快速地發(fā)展起來(lái),再加上近幾年來(lái)ARVR以及全息投影的快速崛起,互動(dòng)投影玩出了很多新花樣,如海底撈開(kāi)的首家智能智慧餐廳就大量使用了互動(dòng)投影,更常見(jiàn)的是博物館及展廳的應(yīng)用,那在這些應(yīng)用的背后有一群專注于互動(dòng)投影創(chuàng)新的小伙伴們!
    發(fā)表于 03-28 08:38 ?3773次閱讀

    C語(yǔ)言的單鏈表應(yīng)用

    最近在看一些開(kāi)源項(xiàng)目,大佬的思路還是很值得去學(xué)習(xí),今天就簡(jiǎn)單介紹一下單鏈表的應(yīng)用,配合回調(diào)函數(shù)可以玩出新花樣,廢話不多說(shuō)直接看代碼!
    的頭像 發(fā)表于 02-20 15:03 ?616次閱讀

    AMD可以把內(nèi)存堆在CPU上嗎?

    先進(jìn)制程工藝進(jìn)度緩慢的情況下,多芯片整合封裝成了半導(dǎo)體行業(yè)的大趨勢(shì),各家不斷玩出新花樣
    的頭像 發(fā)表于 02-23 10:04 ?916次閱讀

    OpenAI發(fā)布首個(gè)文生視頻模型Sora

    開(kāi)發(fā)出熱門聊天機(jī)器人ChatGPT后,OpenAI繼續(xù)在生成式人工智能上玩出新花樣。
    的頭像 發(fā)表于 02-19 13:56 ?1106次閱讀

    商用清潔賽道,普渡清潔機(jī)器人如何玩出新花樣?

    商用清潔賽道,普渡清潔機(jī)器人如何玩出新花樣? 前言 每次技術(shù)革命,都將對(duì)傳統(tǒng)模式帶來(lái)顛覆性改變。 目前,我國(guó)產(chǎn)業(yè)結(jié)構(gòu)正進(jìn)入快速升級(jí)階段,智能制造春潮涌動(dòng),各行各業(yè)正在經(jīng)歷一輪智能化轉(zhuǎn)型升級(jí)的變革
    的頭像 發(fā)表于 08-14 10:21 ?540次閱讀
    主站蜘蛛池模板: 新天堂在线 | 丁香婷婷电影 | 天天操夜夜操视频 | 国产在线成人一区二区 | 日日爱视频| 在线 色| 国产成人精品日本亚洲直接 | 精品国产理论在线观看不卡 | 性久久久久久久久久 | 国产福利小视频在线观看 | 免费看一级黄色录像 | 去毛片 | 成年人一级毛片 | 亚洲视频国产 | 欧美三级在线观看黄 | 久久精品国产精品亚洲人人 | 欧美成人性色 | 免费毛片网站在线观看 | www.激情五月.com | 天天狠天天操 | www亚洲欲色成人久久精品 | 天天天天干 | 色妇影院 | 国产小视频在线免费 | 亚洲第一区精品日韩在线播放 | 曰本aaaaa毛片午夜网站 | 无遮挡很爽很污很黄在线网站 | 午夜欧美精品久久久久久久 | 农村妇女色又黄一级毛片卡 | 狠狠色噜噜狠狠狠狠2021天天 | 黑色丝袜美美女被躁视频 | 美女被猛男躁免费视频网站 | www.福利| 五月婷婷丁香花 | 国产成人高清精品免费5388密 | 成年人电影黄色 | 国产免费一区二区三区 | 婷婷久久综合网 | 中文天堂网在线www 中文天堂资源在线www | 国产午夜精品一区二区 | 全黄h全肉边做边吃奶在线观看 |