在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何判斷一個數(shù)據(jù)在cache中是否命中?cache memory的作用是什么

454398 ? 來源:蝸窩科技 ? 作者:smcdef ? 2020-09-19 11:24 ? 次閱讀

今天探究的主題是cache。我們圍繞幾個問題展開。為什么需要cache?如何判斷一個數(shù)據(jù)在cache中是否命中?cache的種類有哪些,區(qū)別是什么?

我在知乎平臺發(fā)起了一個高速緩存專題,感興趣的可以關(guān)注。

為什么需要cache memory

在思考cache是什么之前我們首先先來思考第一個問題:我們的程序是如何運行起來的?我們應(yīng)該知道程序是運行在 RAM之中,RAM 就是我們常說的DDR(例如 DDR3、DDR4等)。我們稱之為main memory(主存)當(dāng)我們需要運行一個進程的時候,首先會從Flash設(shè)備(例如,eMMC、UFS等)中將可執(zhí)行程序load到main memory中,然后開始執(zhí)行。在CPU內(nèi)部存在一堆的通用寄存器(register)。如果CPU需要將一個變量(假設(shè)地址是A)加1,一般分為以下3個步驟:

CPU 從主存中讀取地址A的數(shù)據(jù)到內(nèi)部通用寄存器 x0(ARM64架構(gòu)的通用寄存器之一)。

通用寄存器 x0 加1。

CPU 將通用寄存器 x0 的值寫入主存。

我們將這個過程可以表示如下:

其實現(xiàn)實中,CPU通用寄存器的速度和主存之間存在著太大的差異。兩者之間的速度大致如下關(guān)系:

CPU register的速度一般小于1ns,主存的速度一般是65ns左右。速度差異近百倍。因此,上面舉例的3個步驟中,步驟1和步驟3實際上速度很慢。當(dāng)CPU試圖從主存中l(wèi)oad/store 操作時,由于主存的速度限制,CPU不得不等待這漫長的65ns時間。如果我們可以提升主存的速度,那么系統(tǒng)將會獲得很大的性能提升。如今的DDR存儲設(shè)備,動不動就是幾個GB,容量很大。如果我們采用更快材料制作更快速度的主存,并且擁有幾乎差不多的容量。其成本將會大幅度上升。我們試圖提升主存的速度和容量,又期望其成本很低,這就有點難為人了。因此,我們有一種折中的方法,那就是制作一塊速度極快但是容量極小的存儲設(shè)備。那么其成本也不會太高。這塊存儲設(shè)備我們稱之為cache memory。在硬件上,我們將cache放置在CPU和主存之間,作為主存數(shù)據(jù)的緩存。 當(dāng)CPU試圖從主存中l(wèi)oad/store數(shù)據(jù)的時候, CPU會首先從cache中查找對應(yīng)地址的數(shù)據(jù)是否緩存在cache 中。如果其數(shù)據(jù)緩存在cache中,直接從cache中拿到數(shù)據(jù)并返回給CPU。當(dāng)存在cache的時候,以上程序如何運行的例子的流程將會變成如下:

CPU和主存之間直接數(shù)據(jù)傳輸?shù)姆绞睫D(zhuǎn)變成CPU和cache之間直接數(shù)據(jù)傳輸。cache負責(zé)和主存之間數(shù)據(jù)傳輸。

多級cache memory

cahe的速度在一定程度上同樣影響著系統(tǒng)的性能。一般情況cache的速度可以達到1ns,幾乎可以和CPU寄存器速度媲美。但是,這就滿足人們對性能的追求了嗎?并沒有。當(dāng)cache中沒有緩存我們想要的數(shù)據(jù)的時候,依然需要漫長的等待從主存中l(wèi)oad數(shù)據(jù)。為了進一步提升性能,引入多級cache。前面提到的cache,稱之為L1 cache(第一級cache)。我們在L1 cache 后面連接L2 cache,在L2 cache 和主存之間連接L3 cache。等級越高,速度越慢,容量越大。但是速度相比較主存而言,依然很快。不同等級cache速度之間關(guān)系如下:

經(jīng)過3級cache的緩沖,各級cache和主存之間的速度最萌差也逐級減小。在一個真實的系統(tǒng)上,各級cache之間硬件上是如何關(guān)聯(lián)的呢?我們看下Cortex-A53架構(gòu)上各級cache之間的硬件抽象框圖如下:

在Cortex-A53架構(gòu)上,L1 cache分為單獨的instruction cache(ICache)和data cache(DCache)。L1 cache是CPU私有的,每個CPU都有一個L1 cache。一個cluster 內(nèi)的所有CPU共享一個L2 cache,L2 cache不區(qū)分指令和數(shù)據(jù),都可以緩存。所有cluster之間共享L3 cache。L3 cache通過總線和主存相連。

多級cache之間的配合工作

首先引入兩個名詞概念,命中和缺失。 CPU要訪問的數(shù)據(jù)在cache中有緩存,稱為“命中” (hit),反之則稱為“缺失” (miss)。多級cache之間是如何配合工作的呢?我們假設(shè)現(xiàn)在考慮的系統(tǒng)只有兩級cache。

當(dāng)CPU試圖從某地址load數(shù)據(jù)時,首先從L1 cache中查詢是否命中,如果命中則把數(shù)據(jù)返回給CPU。如果L1 cache缺失,則繼續(xù)從L2 cache中查找。當(dāng)L2 cache命中時,數(shù)據(jù)會返回給L1 cache以及CPU。如果L2 cache也缺失,很不幸,我們需要從主存中l(wèi)oad數(shù)據(jù),將數(shù)據(jù)返回給L2 cache、L1 cache及CPU。這種多級cache的工作方式稱之為inclusive cache。某一地址的數(shù)據(jù)可能存在多級緩存中。與inclusive cache對應(yīng)的是exclusive cache,這種cache保證某一地址的數(shù)據(jù)緩存只會存在于多級cache其中一級。也就是說,任意地址的數(shù)據(jù)不可能同時在L1和L2 cache中緩存。

直接映射緩存(Direct mapped cache)

我們繼續(xù)引入一些cache相關(guān)的名詞。cache的大小稱之為cahe size,代表cache可以緩存最大數(shù)據(jù)的大小。我們將cache平均分成相等的很多塊,每一個塊大小稱之為cache line,其大小是cache line size。例如一個64 Bytes大小的cache。如果我們將64 Bytes平均分成64塊,那么cache line就是1字節(jié),總共64行cache line。如果我們將64 Bytes平均分成8塊,那么cache line就是8字節(jié),總共8行cache line。現(xiàn)在的硬件設(shè)計中,一般cache line的大小是4-128 Byts。為什么沒有1 byte呢?原因我們后面討論。

這里有一點需要注意,cache line是cache和主存之間數(shù)據(jù)傳輸?shù)淖钚挝弧J裁匆馑寄兀慨?dāng)CPU試圖load一個字節(jié)數(shù)據(jù)的時候,如果cache缺失,那么cache控制器會從主存中一次性的load cache line大小的數(shù)據(jù)到cache中。例如,cache line大小是8字節(jié)。CPU即使讀取一個byte,在cache缺失后,cache會從主存中l(wèi)oad 8字節(jié)填充整個cache line。又是因為什么呢?后面說完就懂了。

我們假設(shè)下面的講解都是針對64 Bytes大小的cache,并且cache line大小是8字節(jié)。我們可以類似把這塊cache想想成一個數(shù)組,數(shù)組總共8個元素,每個元素大小是8字節(jié)。就像下圖這樣。

現(xiàn)在我們考慮一個問題,CPU從0x0654地址讀取一個字節(jié),cache控制器是如何判斷數(shù)據(jù)是否在cache中命中呢?cache大小相對于主存來說,可謂是小巫見大巫。所以cache肯定是只能緩存主存中極小一部分數(shù)據(jù)。我們?nèi)绾胃鶕?jù)地址在有限大小的cache中查找數(shù)據(jù)呢?現(xiàn)在硬件采取的做法是對地址進行散列(可以理解成地址取模操作)。我們接下來看看是如何做到的?

我們一共有8行cache line,cache line大小是8 Bytes。所以我們可以利用地址低3 bits(如上圖地址藍色部分)用來尋址8 bytes中某一字節(jié),我們稱這部分bit組合為offset。同理,8行cache line,為了覆蓋所有行。我們需要3 bits(如上圖地址黃色部分)查找某一行,這部分地址部分稱之為index。現(xiàn)在我們知道,如果兩個不同的地址,其地址的bit3-bit5如果完全一樣的話,那么這兩個地址經(jīng)過硬件散列之后都會找到同一個cache line。所以,當(dāng)我們找到cache line之后,只代表我們訪問的地址對應(yīng)的數(shù)據(jù)可能存在這個cache line中,但是也有可能是其他地址對應(yīng)的數(shù)據(jù)。所以,我們又引入tag array區(qū)域,tag array和data array一一對應(yīng)。每一個cache line都對應(yīng)唯一一個tag,tag中保存的是整個地址位寬去除index和offset使用的bit剩余部分(如上圖地址綠色部分)。tag、index和offset三者組合就可以唯一確定一個地址了。因此,當(dāng)我們根據(jù)地址中index位找到cache line后,取出當(dāng)前cache line對應(yīng)的tag,然后和地址中的tag進行比較,如果相等,這說明cache命中。如果不相等,說明當(dāng)前cache line存儲的是其他地址的數(shù)據(jù),這就是cache缺失。在上述圖中,我們看到tag的值是0x19,和地址中的tag部分相等,因此在本次訪問會命中。由于tag的引入,因此解答了我們之前的一個疑問“為什么硬件cache line不做成一個字節(jié)?”。這樣會導(dǎo)致硬件成本的上升,因為原本8個字節(jié)對應(yīng)一個tag,現(xiàn)在需要8個tag,占用了很多內(nèi)存。

我們可以從圖中看到tag旁邊還有一個valid bit,這個bit用來表示cache line中數(shù)據(jù)是否有效(例如:1代表有效;0代表無效)。當(dāng)系統(tǒng)剛啟動時,cache中的數(shù)據(jù)都應(yīng)該是無效的,因為還沒有緩存任何數(shù)據(jù)。cache控制器可以根據(jù)valid bit確認當(dāng)前cache line數(shù)據(jù)是否有效。所以,上述比較tag確認cache line是否命中之前還會檢查valid bit是否有效。只有在有效的情況下,比較tag才有意義。如果無效,直接判定cache缺失。

上面的例子中,cache size是64 Bytes并且cache line size是8 bytes。offset、index和tag分別使用3 bits、3 bits和42 bits(假設(shè)地址寬度是48 bits)。我們現(xiàn)在再看一個例子:512 Bytes cache size,64 Bytes cache line size。根據(jù)之前的地址劃分方法,offset、index和tag分別使用6 bits、3 bits和39 bits。如下圖所示。

直接映射緩存的優(yōu)缺點

直接映射緩存在硬件設(shè)計上會更加簡單,因此成本上也會較低。根據(jù)直接映射緩存的工作方式,我們可以畫出主存地址0x00-0x88地址對應(yīng)的cache分布圖。

我們可以看到,地址0x00-0x3f地址處對應(yīng)的數(shù)據(jù)可以覆蓋整個cache。0x40-0x7f地址的數(shù)據(jù)也同樣是覆蓋整個cache。我們現(xiàn)在思考一個問題,如果一個程序試圖依次訪問地址0x00、0x40、0x80,cache中的數(shù)據(jù)會發(fā)生什么呢?首先我們應(yīng)該明白0x00、0x40、0x80地址中index部分是一樣的。因此,這3個地址對應(yīng)的cache line是同一個。所以,當(dāng)我們訪問0x00地址時,cache會缺失,然后數(shù)據(jù)會從主存中加載到cache中第0行cache line。當(dāng)我們訪問0x40地址時,依然索引到cache中第0行cache line,由于此時cache line中存儲的是地址0x00地址對應(yīng)的數(shù)據(jù),所以此時依然會cache缺失。然后從主存中加載0x40地址數(shù)據(jù)到第一行cache line中。同理,繼續(xù)訪問0x80地址,依然會cache缺失。這就相當(dāng)于每次訪問數(shù)據(jù)都要從主存中讀取,所以cache的存在并沒有對性能有什么提升。訪問0x40地址時,就會把0x00地址緩存的數(shù)據(jù)替換。這種現(xiàn)象叫做cache顛簸(cache thrashing)。針對這個問題,我們引入多路組相連緩存。我們首先研究下最簡單的兩路組相連緩存的工作原理

兩路組相連緩存(Two-way set associative cache)

我們依然假設(shè)64 Bytes cache size,cache line size是8 Bytes。什么是路(way)的概念。我們將cache平均分成多份,每一份就是一路。因此,兩路組相連緩存就是將cache平均分成2份,每份32 Bytes。如下圖所示。

cache被分成2路,每路包含4行cache line。我們將所有索引一樣的cache line組合在一起稱之為組。例如,上圖中一個組有兩個cache line,總共4個組。我們依然假設(shè)從地址0x0654地址讀取一個字節(jié)數(shù)據(jù)。由于cache line size是8 Bytes,因此offset需要3 bits,這和之前直接映射緩存一樣。不一樣的地方是index,在兩路組相連緩存中,index只需要2 bits,因為一路只有4行cache line。上面的例子根據(jù)index找到第2行cache line(從0開始計算),第2行對應(yīng)2個cache line,分別對應(yīng)way 0和way 1。因此index也可以稱作set index(組索引)。先根據(jù)index找到set,然后將組內(nèi)的所有cache line對應(yīng)的tag取出來和地址中的tag部分對比,如果其中一個相等就意味著命中。

因此,兩路組相連緩存較直接映射緩存最大的差異就是:第一個地址對應(yīng)的數(shù)據(jù)可以對應(yīng)2個cache line,而直接映射緩存一個地址只對應(yīng)一個cache line。那么這究竟有什么好處呢?

兩路組相連緩存優(yōu)缺點

兩路組相連緩存的硬件成本相對于直接映射緩存更高。因為其每次比較tag的時候需要比較多個cache line對應(yīng)的tag(某些硬件可能還會做并行比較,增加比較速度,這就增加了硬件設(shè)計復(fù)雜度)。為什么我們還需要兩路組相連緩存呢?因為其可以有助于降低cache顛簸可能性。那么是如何降低的呢?根據(jù)兩路組相連緩存的工作方式,我們可以畫出主存地址0x00-0x4f地址對應(yīng)的cache分布圖。

我們依然考慮直接映射緩存一節(jié)的問題“如果一個程序試圖依次訪問地址0x00、0x40、0x80,cache中的數(shù)據(jù)會發(fā)生什么呢?”。現(xiàn)在0x00地址的數(shù)據(jù)可以被加載到way 1,0x40可以被加載到way 0。這樣是不是就在一定程度上避免了直接映射緩存的尷尬境地呢?在兩路組相連緩存的情況下,0x00和0x40地址的數(shù)據(jù)都緩存在cache中。試想一下,如果我們是4路組相連緩存,后面繼續(xù)訪問0x80,也可能被被緩存。

因此,當(dāng)cache size一定的情況下,組相連緩存對性能的提升最差情況下也和直接映射緩存一樣,在大部分情況下組相連緩存效果比直接映射緩存好。同時,其降低了cache顛簸的頻率。從某種程度上來說,直接映射緩存是組相連緩存的一種特殊情況,每個組只有一個cache line而已。因此,直接映射緩存也可以稱作單路組相連緩存。

全相連緩存(Full associative cache)

既然組相連緩存那么好,如果所有的cache line都在一個組內(nèi)。豈不是性能更好。是的,這種緩存就是全相連緩存。我們依然以64 Byts大小cache為例說明。

由于所有的cache line都在一個組內(nèi),因此地址中不需要set index部分。因為,只有一個組讓你選擇,間接來說就是你沒得選。我們根據(jù)地址中的tag部分和所有的cache line對應(yīng)的tag進行比較(硬件上可能并行比較也可能串行比較)。哪個tag比較相等,就意味著命中某個cache line。因此,在全相連緩存中,任意地址的數(shù)據(jù)可以緩存在任意的cache line中。所以,這可以最大程度的降低cache顛簸的頻率。但是硬件成本上也是更高。

一個四路組相連緩存實例問題

考慮這么一個問題,32 KB大小4路組相連cache,cache line大小是32 Bytes。請思考一下問題:

1). 多少個組? 2). 假設(shè)地址寬度是48 bits,index、offset以及tag分別占用幾個bit?

總共4路,因此每路大小是8 KB。cache line size是32 Bytes,因此一共有256組(8 KB / 32 Bytes)。由于cache line size是32 Bytes,所以offset需要5位。一共256組,所以index需要8位,剩下的就是tag部分,占用35位。這個cache可以繪制下圖表示。

Cache分配策略(Cache allocation policy)

cache的分配策略是指我們什么情況下應(yīng)該為數(shù)據(jù)分配cache line。cache分配策略分為讀和寫兩種情況。

讀分配(read allocation):

當(dāng)CPU讀數(shù)據(jù)時,發(fā)生cache缺失,這種情況下都會分配一個cache line緩存從主存讀取的數(shù)據(jù)。默認情況下,cache都支持讀分配。

寫分配(write allocation):

當(dāng)CPU寫數(shù)據(jù)發(fā)生cache缺失時,才會考慮寫分配策略。當(dāng)我們不支持寫分配的情況下,寫指令只會更新主存數(shù)據(jù),然后就結(jié)束了。當(dāng)支持寫分配的時候,我們首先從主存中加載數(shù)據(jù)到cache line中(相當(dāng)于先做個讀分配動作),然后會更新cache line中的數(shù)據(jù)。

Cache更新策略(Cache update policy)

cache更新策略是指當(dāng)發(fā)生cache命中時,寫操作應(yīng)該如何更新數(shù)據(jù)。cache更新策略分成兩種:寫直通和回寫。

寫直通(write through):

當(dāng)CPU執(zhí)行store指令并在cache命中時,我們更新cache中的數(shù)據(jù)并且更新主存中的數(shù)據(jù)。cache和主存的數(shù)據(jù)始終保持一致。

寫回(write back):

當(dāng)CPU執(zhí)行store指令并在cache命中時,我們只更新cache中的數(shù)據(jù)。并且每個cache line中會有一個bit位記錄數(shù)據(jù)是否被修改過,稱之為dirty bit(翻翻前面的圖片,cache line旁邊有一個D就是dirty bit)。我們會將dirty bit置位。主存中的數(shù)據(jù)只會在cache line被替換或者顯示clean操作時更新。因此,主存中的數(shù)據(jù)可能是未修改的數(shù)據(jù),而修改的數(shù)據(jù)躺在cache line中。

同時,為什么cache line大小是cache控制器和主存之間數(shù)據(jù)傳輸?shù)淖钚挝荒兀窟@也是因為每個cache line只有一個dirty bit。這一個dirty bit代表著整個cache line時候被修改的狀態(tài)。

實例

假設(shè)我們有一個64 Bytes大小直接映射緩存,cache line大小是8 Bytes,采用寫分配和寫回機制。當(dāng)CPU從地址0x2a讀取一個字節(jié),cache中的數(shù)據(jù)將會如何變化呢?假設(shè)當(dāng)前cache狀態(tài)如下圖所示。

根據(jù)index找到對應(yīng)的cache line,對應(yīng)的tag部分valid bit是合法的,但是tag的值不相等,因此發(fā)生缺失。此時我們需要從地址0x28地址加載8字節(jié)數(shù)據(jù)到該cache line中。但是,我們發(fā)現(xiàn)當(dāng)前cache line的dirty bit置位。因此,cache line里面的數(shù)據(jù)不能被簡單的丟棄,由于采用寫回機制,所以我們需要將cache中的數(shù)據(jù)0x11223344寫到地址0x0128地址(這個地址根據(jù)tag中的值及所處的cache line行計算得到)。這個過程如下圖所示。

當(dāng)寫回操作完成,我們將主存中0x28地址開始的8個字節(jié)加載到該cache line中,并清除dirty bit。然后根據(jù)offset找到0x52返回給CPU。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 寄存器
    +關(guān)注

    關(guān)注

    31

    文章

    5372

    瀏覽量

    121304
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10914

    瀏覽量

    213155
  • RAM
    RAM
    +關(guān)注

    關(guān)注

    8

    文章

    1369

    瀏覽量

    115070
  • 緩存
    +關(guān)注

    關(guān)注

    1

    文章

    242

    瀏覽量

    26775
  • Cache
    +關(guān)注

    關(guān)注

    0

    文章

    129

    瀏覽量

    28453
收藏 人收藏

    評論

    相關(guān)推薦

    Linux服務(wù)器卡頓救星之招釋放Cache內(nèi)存

    為了加速操作和減少磁盤I/O,內(nèi)核通常會盡可能多地緩存內(nèi)存,這部分內(nèi)存就是Cache Memory(緩存內(nèi)存)。根據(jù)設(shè)計,包含緩存數(shù)據(jù)的頁面可以按需重新用于其他用途(例如,應(yīng)用程序)。 緩存內(nèi)存
    的頭像 發(fā)表于 01-16 10:04 ?341次閱讀

    什么是緩存(Cache)及其作用

    緩存(Cache)是種高速存儲器,用于臨時存儲數(shù)據(jù),以便快速訪問。計算機系統(tǒng),緩存的作用是
    的頭像 發(fā)表于 12-18 09:28 ?1668次閱讀

    Cache和內(nèi)存有什么區(qū)別

    Cache(高速緩存)和內(nèi)存(Memory,通常指主存儲器或RAM)是計算機存儲系統(tǒng)重要的組成部分,它們計算機的性能和
    的頭像 發(fā)表于 09-26 15:28 ?2223次閱讀

    命中順序仲裁verilog如何優(yōu)化設(shè)計?

    ;= state_2; end end endcase end end endmodule 仿真時存在的問題: 若每個時鐘連續(xù)輸入valid時,因處理個數(shù)據(jù)需要多個時鐘周期會導(dǎo)致數(shù)據(jù)被覆蓋而遺漏
    發(fā)表于 09-22 20:56

    解析Arm Neoverse N2 PMU事件L2D_CACHE_WR

    有客戶希望我們幫忙分析 Eigen gemm 基準測試的些執(zhí)行情況。具體來說是為什么 L1D_CACHE_WR 的值會低于 L2D_CACHE_WR,這種情況令人費解。
    的頭像 發(fā)表于 09-03 11:42 ?1398次閱讀
    解析Arm Neoverse N2 PMU事件L2D_<b class='flag-5'>CACHE</b>_WR

    什么是CPU緩存?它有哪些作用

    CPU緩存(Cache Memory)是計算機系統(tǒng)中至關(guān)重要的組成部分,它位于CPU與內(nèi)存之間,作為兩者之間的臨時存儲器。CPU緩存的主要作用是
    的頭像 發(fā)表于 08-22 14:54 ?3858次閱讀

    2k1000LA關(guān)于IODMA請求的描述

    2k1000的用戶手冊,有對IO互連網(wǎng)絡(luò)的DMA請求路由方式進行闡述,如圖。 其中提到窗口命中需要兩條件,是地址經(jīng)過掩碼后與base
    發(fā)表于 08-15 21:52

    Cortex R52內(nèi)核Cache的具體操作(2)

    ,clean等操作。雖然目前cortex R52內(nèi)核很少需要操作cache,但是本節(jié)依然給些操作指導(dǎo)和實踐,以備以后不時之須。
    的頭像 發(fā)表于 07-15 15:44 ?1562次閱讀
    Cortex R52內(nèi)核<b class='flag-5'>Cache</b>的具體操作(2)

    Cortex R52內(nèi)核Cache的相關(guān)概念(1)

    開始閱讀本系列文章之前,請先參閱《有關(guān)CR52 MPU配置說明》。因為這篇文章講述了,cache配置所涉及到的寄存器的設(shè)置和MPU的些基本概念。如果讀者都已經(jīng)理解了上述內(nèi)容,可以跳過。本章內(nèi)容主要講述
    的頭像 發(fā)表于 07-15 10:37 ?1795次閱讀
    Cortex R52內(nèi)核<b class='flag-5'>Cache</b>的相關(guān)概念(1)

    CortexR52內(nèi)核Cache的具體操作

    ,clean等操作。雖然目前cortex R52內(nèi)核很少需要操作cache,但是本節(jié)依然給些操作指導(dǎo)和實踐,以備以后不時之須。
    的頭像 發(fā)表于 07-15 10:32 ?1416次閱讀
    CortexR52內(nèi)核<b class='flag-5'>Cache</b>的具體操作

    內(nèi)核(linux-3.12)的文件系統(tǒng)預(yù)讀設(shè)計和實現(xiàn)

    次進入內(nèi)核讀處理流程時,page cache查找該offset對應(yīng)的頁面是否緩存,因為首次讀,緩存未
    發(fā)表于 04-12 14:26 ?358次閱讀
    內(nèi)核(linux-3.12)的文件系統(tǒng)預(yù)讀設(shè)計和實現(xiàn)

    為什么HAL庫操作Flash erase的時候,需要把I-Cache和D-Cache關(guān)閉呢?

    請問為什么HAL庫操作Flash erase的時候,需要把I-Cache和D-Cache關(guān)閉呢? 這有什么原因呢? 有人可以解答嗎?
    發(fā)表于 04-07 09:08

    STM32H7配置FileX時,開關(guān)“Enable data cache maintenance”的作用是什么?發(fā)生HardFault_Handler的原因?

    STM32H7上基于AzureRTOS的FileX實現(xiàn)向TF卡寫入數(shù)據(jù)CubeMX配置FileX頁面里有Enable data cache maintenance開關(guān),這個選項
    發(fā)表于 03-13 06:23

    請問STM32MP13X的MMU和Cache如何使能?

    STM32MP13X的MMU和Cache如何使能?修改了hal_conf里的DATA_CACHE_ENABLE的宏console里還是顯示沒開,設(shè)置里的Define symbols把NO_C
    發(fā)表于 03-12 06:46

    如何判斷晶體管是否放大狀態(tài)

    判斷晶體管是否放大狀態(tài)是電子學(xué)領(lǐng)域中項重要的技術(shù)任務(wù)。晶體管是種具有放大功能的電子器件,
    的頭像 發(fā)表于 02-27 17:04 ?1835次閱讀
    主站蜘蛛池模板: 成人一二| 美女又黄又免费 | 亚洲已满18点击进入在线观看 | 亚洲青草视频 | 国产伦精品一区二区三区高清 | 欧美一级特黄乱妇高清视频 | 狼色网| 欧美一级视频免费观看 | 四虎国产欧美成人影院 | 伊人久久精品成人网 | 韩国三级理论在线观看视频 | 国产精选经典三级小泽玛利亚 | 奇米狠狠干 | 五月婷婷免费视频 | 人人草人人爽 | 国产精品视频久久久 | 免费一级毛片正在播放 | 我想看一级播放片一级的 | 国产精品久久新婚兰兰 | 婷婷激情久久 | 最新看片网址 | 最新亚洲一区二区三区四区 | 午夜网站在线播放 | 男人午夜视频在线观看 | 久久久久88色偷偷 | 国产精品久久久久久一级毛片 | 国模最新私拍视频在线观看 | 四虎一区二区三区精品 | 在线视频 二区 | 欧美乱淫 | 男男污肉高h坐便器调教 | 久久久久久国产精品免费 | 美女扒开尿口给男的桶个爽 | 伊人网综合在线 | 中日韩在线视频 | 夜夜夜操 | 最新日韩中文字幕 | 天天摸日日添狠狠添婷婷 | 国产美女流出白浆在线观看 | 我爱操| 一级毛片aa|