Linux核心相關常見面試題

來源:互聯網
上載者:User

轉載自http://www.itmian4.com/forum.php?mod=viewthread&tid=2867#3352593-tsina-1-77660-27781be5b98356c3a2bccaf9a6db7b15
1.    Linux中主要有哪幾種核心鎖?
Linux的同步機制從2.0到2.6以來不斷髮展完善。從最初的原子操作,到後來的訊號量,從大核心鎖到今天的自旋鎖。這些同步機制的發展伴隨Linux從單一處理器到對稱式多處理器的過渡;Linux的核心鎖主要是自旋鎖和訊號量。
自旋鎖最多隻能被一個可執行線程持有,如果一個執行線程試圖請求一個已被爭用(已經被持有)的自旋鎖,那麼這個線程就會一直進行忙迴圈——旋轉——等待鎖重新可用。要是鎖未被爭用,請求它的執行線程便能立刻得到它並且繼續進行。自旋鎖可以在任何時刻防止多於一個的執行線程同時進入臨界區。
Linux中的訊號量是一種睡眠鎖。如果有一個任務試圖獲得一個已被持有的訊號量時,訊號量會將其推入等待隊列,然後讓其睡眠。這時處理器獲得自由去執行其它代碼。當持有訊號量的進程將訊號量釋放後,在等待隊列中的一個任務將被喚醒,從而便可以獲得這個訊號量。
訊號量的睡眠特性,使得訊號量適用於鎖會被長時間持有的情況;只能在進程上下文中使用,因為中斷上下文中是不能被調度的;另外當代碼持有訊號量時,不可以再持有自旋鎖。
伴隨著從非搶佔核心到搶佔核心的過度。Linux的鎖機制越來越有效,也越來越複雜。
Linux核心中的同步機制:原子操作、訊號量、讀寫訊號量和自旋鎖的API,另外一些同步機制,包括大核心鎖、讀寫鎖、大讀者鎖、RCU (Read-Copy Update,顧名思義就是讀-拷貝修改),和順序鎖。

2.    Linux中的使用者模式和核心模式是什麼含意?
MS-DOS等作業系統在單一的CPU模式下運行,但是一些類Unix的作業系統則使用了雙模式,可以有效地實現時間共用。在Linux機器上,CPU要麼處於受信任的核心模式,要麼處於受限制的使用者模式。除了核心本身處於核心模式以外,所有的使用者進程都運行在使用者模式之中。
核心模式的代碼可以無限制地訪問所有處理器指令集以及全部記憶體和I/O空間。如果使用者模式的進程要享有此特權,它必須通過系統調用向裝置驅動程式或其他核心模式的代碼發出請求。另外,使用者模式的代碼允許發生缺頁,而核心模式的代碼則不允許。
在2.4和更早的核心中,僅僅使用者模式的進程可以被環境切換出局,由其他進程搶佔。除非發生以下兩種情況,否則核心模式代碼可以一直獨佔CPU:
(1)它自願放棄CPU;
(2)發生中斷或異常。
2.6核心引入了核心搶佔,大多數核心模式的代碼也可以被搶佔。

3.    怎樣申請大塊核心記憶體?
在Linux核心環境下,申請大塊記憶體的成功率隨著系統已耗用時間的增加而減少,雖然可以通過vmalloc系列調用申請物理不連續但虛擬位址連續的記憶體,但畢竟其使用效率不高且在32位系統上vmalloc的記憶體位址空間有限。所以,一般的建議是在系統啟動階段申請大塊記憶體,但是其成功的機率也只是比較高而已,而不是100%。如果程式真的比較在意這個申請的成功與否,只能退用“啟動記憶體”(Boot Memory)。下面就是申請並匯出啟動記憶體的一段範例程式碼:
void* x_bootmem= NULL;
EXPORT_SYMBOL(x_bootmem);

unsigned long x_bootmem_size= 0;
EXPORT_SYMBOL(x_bootmem_size);

static int __init x_bootmem_setup(char *str)
{
        x_bootmem_size= memparse(str, &str);
        x_bootmem= alloc_bootmem(x_bootmem_size);
        printk("Reserved %lu bytes from %p for x\n",x_bootmem_size, x_bootmem);

        return 1;
}
__setup("x-bootmem=", x_bootmem_setup);
 
可見其應用還是比較簡單的,不過利弊總是共生的,它不可避免也有其自身的限制:
記憶體申請代碼只能串連進核心,不能在模組中使用。
被申請的記憶體不會被頁分配器和slab分配器所使用和統計,也就是說它處於系統的可見記憶體之外,即使在將來的某個地方你釋放了它。
一般使用者只會申請一大塊記憶體,如果需要在其上實現複雜的記憶體管理則需要自己實現。
在不允許記憶體配置失敗的場合,通過啟動記憶體預留記憶體空間將是我們唯一的選擇。

4.   使用者處理序間通訊主要哪幾種方式?
(1)管道(Pipe):管道可用於具有親緣關係進程間的通訊,允許一個進程和另一個與它有共同祖先的進程之間進行通訊。
(2)具名管道(named pipe):具名管道克服了管道沒有名字的限制,因此,除具有管道所具有的功能外,它還允許無親緣關係進程間的通訊。具名管道在檔案系統中有對應的檔案名稱。具名管道通過命令mkfifo或系統調用mkfifo來建立。
(3)訊號(Signal):訊號是比較複雜的通訊方式,用於通知接受進程有某種事件發生,除了用於處理序間通訊外,進程還可以發送訊號給進程本身;linux除了支援Unix早期訊號語義函數sigal外,還支援語義符合Posix.1標準的訊號函數sigaction(實際上,該函數是基於BSD的,BSD為了實現可靠訊號機制,又能夠統一對外介面,用sigaction函數重新實現了signal函數)。
(4)訊息(Message)隊列:訊息佇列是訊息的連結資料表,包括Posix訊息佇列system V訊息佇列。有足夠許可權的進程可以向隊列中添加訊息,被賦予讀許可權的進程則可以讀走隊列中的訊息。訊息佇列克服了訊號承載資訊量少,管道只能承載無格式位元組流以及緩衝區大小受限等缺
(5)共用記憶體:使得多個進程可以訪問同一塊記憶體空間,是最快的可用IPC形式。是針對其他通訊機制運行效率較低而設計的。往往與其它通訊機制,如訊號量結合使用,來達到進程間的同步及互斥。
(6)訊號量(semaphore):主要作為進程間以及同一進程不同線程之間的同步手段。
(7)通訊端(Socket):更為一般的處理序間通訊機制,可用於不同機器之間的處理序間通訊。起初是由Unix系統的BSD分支開發出來的,但現在一般可以移植到其它類Unix系統上:Linux和System V的變種都支援通訊端。

5.    通過夥伴系統申請核心記憶體的函數有哪些?
在物理頁面管理上實現了基於區的夥伴系統(zone based buddy system)。對不同區的記憶體使用量單獨的夥伴系統(buddy system)管理,而且獨立地監控空閑頁。相應介面alloc_pages(gfp_mask, order),_ _get_free_pages(gfp_mask, order)等。
補充知識:
1.原理說明
  Linux核心中采 用了一種同時適用於32位和64位系統的內 存分頁模型,對於32位系統來說,兩級頁表足夠用了,而在x86_64系 統中,用到了四級頁表。
  *頁全域目錄(Page Global Directory)
  *頁上級目錄(Page Upper Directory)
  *頁中間目錄(Page Middle Directory)
  *頁表(Page Table)
  頁全域目錄包含若干頁上級目錄的地址,頁上級目錄又依次包含若干頁中間目錄的地址,而頁中間目錄又包含若干頁表的地址,每一個頁表項指向一個頁框。Linux中採用4KB大小的 頁框作為標準的記憶體配置單元。
  多級分頁目錄結構
  1.1.夥伴系統演算法
  在實際應用中,經常需要分配一組連續的頁框,而頻繁地申請和釋放不同大小的連續頁框,必然導致在已指派頁框的記憶體塊中分散了許多小塊的空閑頁框。這樣,即使這些頁框是閒置,其他需要分配連續頁框的應用也很難得到滿足。
  為了避免出現這種情況,Linux核心中引入了夥伴系統演算法(buddy system)。把所有的空閑頁框分組為11個 塊鏈表,每個塊鏈表分別包含大小為1,2,4,8,16,32,64,128,256,512和1024個連續頁框的頁框塊。最大可以申請1024個連 續頁框,對應4MB大小的連續記憶體。每個頁框塊的第一個頁框的物理地址是該塊大小的整數倍。
  假設要申請一個256個頁框的塊,先從256個頁框的鏈表中尋找空閑塊,如果沒有,就去512個 頁框的鏈表中找,找到了則將頁框塊分為2個256個 頁框的塊,一個分配給應用,另外一個移到256個頁框的鏈表中。如果512個頁框的鏈表中仍沒有空閑塊,繼續向1024個頁 框的鏈表尋找,如果仍然沒有,則返回錯誤。
  頁框塊在釋放時,會主動將兩個連續的頁框塊合并為一個較大的頁框塊。
  1.2.slab分配器
  slab分配器源於 Solaris 2.4的 分配演算法,工作於實體記憶體頁框分配器之上,管理特定大小對象的緩衝,進行快速而高效的記憶體配置。
  slab分配器為每種使用的核心對象建立單獨的緩衝區。Linux核心已經採用了夥伴系統管理實體記憶體頁框,因此 slab分配器直接工作於夥伴系統之上。每種緩衝區由多個 slab組成,每個 slab就是一組連續的實體記憶體頁框,被劃分成了固定數目的對象。根據對象大小的不同,預設情況下一個 slab最多可以由 1024個頁框構成。出於對齊 等其它方面的要求,slab中分配給對象的記憶體可能大於使用者要求的對象實際大小,這會造成一定的 記憶體浪費。
  2.常用記憶體配置函數
  2.1.__get_free_pages
  unsigned long __get_free_pages(gfp_t gfp_mask, unsigned int order)
  __get_free_pages函數是最原始的記憶體配置方式,直接從夥伴系統中擷取原始頁框,傳回值為第一個頁框的起始地址。__get_free_pages在實現上只是封裝了alloc_pages函數,從程式碼分析,alloc_pages函數會分配長度為1<
  2.2.kmem_cache_alloc
  struct kmem_cache *kmem_cache_create(const char *name, size_t size,
  size_t align, unsigned long flags,
  void (*ctor)(void*, struct kmem_cache *, unsigned long),
  void (*dtor)(void*, struct kmem_cache *, unsigned long))
  void *kmem_cache_alloc(struct kmem_cache *c, gfp_t flags)
  kmem_cache_create/ kmem_cache_alloc是基於slab分配器的一種記憶體配置方式,適用於反覆分配釋放同一大小記憶體塊的場合。首先用kmem_cache_create建立一個快取地區,然後用kmem_cache_alloc從 該快取地區中擷取新的記憶體塊。 kmem_cache_alloc一次能分配的最大記憶體由mm/slab.c檔案中的MAX_OBJ_ORDER宏 定義,在預設的2.6.18核心版本中,該宏定義為5, 於是一次最多能申請1<<5 * 4KB也就是128KB的
連續實體記憶體。分析核心源碼發現,kmem_cache_create函數的size參數大於128KB時會調用BUG()。測試結果驗證了分析結果,用kmem_cache_create分 配超過128KB的記憶體時使核心崩潰。
  2.3.kmalloc
  void *kmalloc(size_t size, gfp_t flags)
  kmalloc是核心中最常用的一種記憶體配置方式,它通過調用kmem_cache_alloc函數來實現。kmalloc一次最多能申請的記憶體大小由include/linux/Kmalloc_size.h的內容來決定,在預設的2.6.18核心版本中,kmalloc一 次最多能申請大小為131702B也就是128KB字 節的連續實體記憶體。測試結果表明,如果試圖用kmalloc函數分配大於128KB的記憶體,編譯不能通過。
2.4.vmalloc
  void *vmalloc(unsigned long size)
  前面幾種記憶體配置方式都是物理連續的,能保證較低的平均訪問時間。但是在某些場合中,對記憶體區的請求不是很頻繁,較高的記憶體訪問時間也可以接受,這是就可以分配一段線性連續,物理不連續的地址,帶來的好處是一次可以分配較大塊的記憶體。圖3-1表示的是vmalloc分配的記憶體使用量的位址範圍。vmalloc對一次能分配的記憶體大小沒有明確限制。出於效能考慮,應謹慎使用vmalloc函數。在測試過程中, 最大能一次分配1GB的空間。
  Linux核心部分記憶體分布
  2.5.dma_alloc_coherent
  void *dma_alloc_coherent(struct device *dev, size_t size,
  ma_addr_t *dma_handle, gfp_t gfp)
  DMA是一種硬體機制,允許外圍裝置和主存之間直接傳輸IO資料,而不需要CPU的參與,使用DMA機制能大幅提高與裝置通訊的輸送量。DMA操作中,涉及到CPU高速緩 存和對應的記憶體資料一致性的問題,必須保證兩者的資料一致,在x86_64體繫結構中,硬體已經很 好的解決了這個問題,dma_alloc_coherent和__get_free_pages函數實現差別不大,前者實際是調用__alloc_pages函數來分配記憶體,因此一次分配記憶體的大小限制和後者一樣。__get_free_pages分配的內 存同樣可以用於DMA操作。測試結果證明,dma_alloc_coherent函
數一次能分配的最大記憶體也為4M。
  2.6.ioremap
  void * ioremap (unsigned long offset, unsigned long size)
  ioremap是一種更直接的記憶體“分配”方式,使用時直接指定物理起始地址和需要分配記憶體的大小,然後將該段物理地址映射到核心地址空間。ioremap用到的物理地址空間都是事先確定的,和上面的幾種記憶體 分配方式並不太一樣,並不是分配一段新的實體記憶體。ioremap多用於裝置驅動,可以讓CPU直接存取外部裝置的IO空間。ioremap能映射的記憶體由原有的實體記憶體空間決定,所以沒有進行測試。

2.7.Boot Memory
  如果要分配大量的連續實體記憶體,上述的分配函數都不能滿足,就只能用比較特殊的方式,在Linux內 核引導階段來預留部分記憶體。
  2.7.1.在核心引導時分配記憶體
  void* alloc_bootmem(unsigned long size)
  可以在Linux核心引導過程中繞過夥伴系統來分配大塊記憶體。使用方法是在Linux核心引導時,調用mem_init函數之前 用alloc_bootmem函數申請指定大小的記憶體。如果需要在其他地方調用這塊記憶體,可以將alloc_bootmem返回的記憶體首地址通過EXPORT_SYMBOL導 出,然後就可以使用這塊記憶體了。這種記憶體配置方式的缺點是,申請記憶體的代碼必須在連結到核心中的代碼裡才能使用,因此必須重新編譯核心,而且記憶體管理系統看不到這部分記憶體,需要使用者自行管理。測試結果表明,重新編譯核心後重啟,能夠訪問引導時分配的記憶體塊。
  2.7.2.通過核心引導參數預留頂部記憶體
  在Linux核心引導時,傳入參數“mem=size”保留頂部的記憶體區間。比如系統有256MB內 存,參數“mem=248M”會預留頂部的8MB記憶體,進入系統後可以調用ioremap(0xF800000,0x800000)來申請這段記憶體。
  3.幾種分配函數的比較
  分配原理最大記憶體其他
  __get_free_pages直接對頁框進行操作4MB適用於分配較大量的連續實體記憶體
  kmem_cache_alloc基於slab機制實現128KB適合需要頻繁申請釋放相同大小記憶體塊時使用
  kmalloc基於kmem_cache_alloc實現128KB最常見的分配方式,需要小於頁框大小的記憶體時可以使用
  vmalloc建立非連續實體記憶體到虛擬位址的映射物理不連續,適合需要大記憶體,但是對地址連續性沒有要求的場合
  dma_alloc_coherent基於__alloc_pages實現4MB適用於DMA操 作
  ioremap實現已知物理地址到虛擬位址的映射適用於物理地址已知的場合,如裝置驅動
  alloc_bootmem在啟動kernel時,預留一段記憶體,核心看不見小於實體記憶體大小,記憶體管理要求較高
 

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.