CentOS6上MongoDB串連數無法突破1000的解決辦法

來源:互聯網
上載者:User

CentOS6上MongoDB串連數無法突破1000的解決辦法

問題描述:

生產環境發現CPU滿負荷運行,MongoDB的串連數始終突破不了1000。

解決方案:

1、查看mongodb的日誌,報下面的錯誤:

Wed Nov 21 15:26:09 [initandlisten] pthread_create failed: errno:11 Resource temporarily unavailable 

Wed Nov 21 15:26:09 [initandlisten] can't create new thread, closing connection

2、在一台一樣的CentOS5的機器上測試,發現串連2000個串連一點問題都沒有。 
3、上google尋找問題,關鍵字“mongod.conf can’t create new thread, closing connection”   
4、找到問題所在,原來centos6與之前centos5不同,多了一個預設的限制使用者nproc的設定檔 :/etc/security/limits.d/90-nproc.conf ,預設把普通使用者的nproc設定成1024,而mongodb正好又是使用mongod這個非root使用者跑的,所以串連數一直上不去了。   
5、更改/etc/security/limits.d/90-nproc.conf ,把1024改成20480 ,問題解決。

[root@test ~]# cat /etc/security/limits.d/90-nproc.conf   

# Default limit for number of user's processes to prevent   

# accidental fork bombs.   

# See rhbz #432903 for reasoning.

*          soft    nproc    20480

開啟檔案控制代碼數和最大使用者進程數限制:

在Linux下面部署應用的時候,有時候會遇上Socket/File: Can’t open so many files的問題;這個值也會影響伺服器的最大並發數,其實Linux是有檔案控制代碼限制的,而且Linux預設不是很高,一般都是1024,生產伺服器用其實很容易就達到這個數量。下面說的是,如何通過正解配置來改正這個系統預設值。

 
查看方法

我們可以用ulimit -a來查看所有限制值 

[root@test ~]# ulimit -a   

core file size          (blocks, -c) 0   

data seg size          (kbytes, -d) unlimited   

scheduling priority            (-e) 0   

file size              (blocks, -f) unlimited   

pending signals                (-i) 256469   

max locked memory      (kbytes, -l) 64   

max memory size        (kbytes, -m) unlimited   

open files                      (-n) 64000   

pipe size            (512 bytes, -p) 8   

POSIX message queues    (bytes, -q) 819200   

real-time priority              (-r) 0   

stack size              (kbytes, -s) 10240   

cpu time              (seconds, -t) unlimited   

max user processes              (-u) 65536   

virtual memory          (kbytes, -v) unlimited   

file locks                      (-x) unlimited

其中 "open files (-n)"是Linux作業系統對一個進程開啟的檔案控制代碼數量的限制,預設是1024。 
(也包含開啟的SOCKET數量,可影響資料庫的並發串連數目)。

正確的做法,應該是修改/etc/security/limits.conf 
裡面有很詳細的注釋,比如   
Hadoop  soft  nofile  32768   
hadoop hard nofile 65536

hadoop soft  nproc  32768 
hadoop hard nproc 65536

就可以將檔案控制代碼限制統一改成軟32768,硬65536。設定檔最前面的是指domain,設定為星號代表全域,另外你也可以針對不同的使用者做出不同的限制。

注意:這個當中的硬限制是實際的限制,而軟式節流,是warnning限制,只會做出warning;其實ulimit命令本身就有分軟硬設定,加-H就是硬,加-S就是軟

預設顯示的是軟式節流,如果運行ulimit命令修改的時候沒有加上的話,就是兩個參數一起改變。

RHE6及以後 nproc的修改在/etc/security/limits.d/90-nproc.conf中

如何修改串連數限制:

臨時修改(當前shell下更改使用者可開啟進程數): 

# ulimit -u xxx

永久修改, 保險的做法是同時修改/etc/security/limits.d/90-nproc.conf 和 /etc/security/limits.conf如下:

limits_conf = /etc/security/limits.conf: 
*  soft  nproc    s1   
*  hard  nproc    h1

nproc_conf = /etc/security/limits.d/90-nproc.conf: 
*  soft    nproc    s2   
*  hard    nproc    h2

s1,h1,s2,h2必須是具體有意義的數. 此時ulimit -u顯示的值為=min(h1,h2)

因此通常就設定s1=s2=h1=h2, 例如在limits_conf和nproc_conf中同時加入: 
*  soft  nproc  65536   
*  hard  nproc  65536

更多MongoDB相關教程見以下內容:

CentOS 編譯安裝 MongoDB與mongoDB的php擴充

CentOS 6 使用 yum 安裝MongoDB及伺服器端配置

Ubuntu 13.04下安裝MongoDB2.4.3

MongoDB入門必讀(概念與實戰並重)

Ubunu 14.04下MongoDB的安裝指南

《MongoDB 權威指南》(MongoDB: The Definitive Guide)英文文字版[PDF]

Nagios監控MongoDB分區叢集服務實戰

基於CentOS 6.5作業系統搭建MongoDB服務

MongoDB 的詳細介紹:請點這裡
MongoDB 的:請點這裡

本文永久更新連結地址:

相關文章

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.