nginx最佳化,nginx最佳化grapenvine

來源:互聯網
上載者:User

nginx最佳化,nginx最佳化grapenvine

充分發揮Nginx的高效性和穩定性,對於Nginx最佳化非常重要。下面主要是從編譯安裝、第三方外掛程式、系統核心等三方面介紹。 

編譯安裝過程最佳化

1、減小Nginx編譯後的檔案大小

  在編譯Nginx時,預設是以debug模式進行,而在debug模式下會插入很多跟蹤和ASSERT之類的資訊,編譯完後,一個Nginx要有好幾MB。在編譯前取消debug模式,編譯完成後Nginx只有幾百千字位元組,因此,在編譯之前,修改相關源碼,取消debug模式。

  在Nginx源碼檔案中,找到源碼目錄下的auto/cc/gcc檔案,在開啟後在其中找到如下幾行:

注釋或者刪除這兩行,就可以取消debug模式。

2、為特定的CPU指定CPU編譯類型編譯最佳化。

  在編譯Nginx,預設的GCC編譯參數是“-O”,需要最佳化GCC編譯,可以使用這兩個參數。

  --with-cc-opt="-O3"

  --with-cpu-opt=CPU    #位特定的CPU編譯,有效值包括:Pentium、pentiumpro、pentium3、Pentium4、athlon、Opteron、amd64、sparc32、sparc64、ppc64

  要確定CPU類型,可以通過以下命令:

  cat /proc/cpuinfo| grep "model name"

3、隱藏版本號碼和軟體名

  vi src/core/nginx.h 

  1. #define NGINX_VERSION      "7.0" 
  2. #defineNGINX_VER          "IIS/" NGINX_VERSION   #這裡修改的是你想要修改的軟體名稱

   修改HTTP頭資訊中的connection欄位,防止回顯具體版本號碼

  通用http頭,通用頭包含請求和響應訊息都支援的頭,通用頭包含Cache-Control、 Connection、Date、Pragma、Transfer-Encoding、Upgrade、Via。對通用頭的擴充要求通訊雙方都支援此擴充,如果存在不支援的通用頭,一般將會作為實體頭處理。那麼也就是說有部分裝置,或者是軟體,能擷取到connection,部分不能,要隱藏就要徹底!

   vi src/http/ngx_http_header_filter_module.c

  1. staticchar ngx_http_server_string[] = "Server: IIS"CRLF    #主要是這裡

  定義了http錯誤碼的返回

  有時候我們頁面程式出現錯誤,Nginx會代我們返回相應的錯誤碼,回顯的時候,會帶上nginx和版本號碼,我們把他隱藏起來

  vi src/http/ngx_http_special_response.c 

  1. static u_char ngx_http_error_tail[] = 
  2. "<hr><center>IIS</center>" CRLF 
  3. "</body>" CRLF 
  4. "</html>" CRLF 

  利用TCMalloc最佳化Nginx的效能

  TCMalloc是Google開發的開源工具。與標準的glibc庫的malloc相比,TCMalloc庫在記憶體配置效率和速度上要高很多,提高了伺服器在高並發情況下的效能,從而降低了系統的負載。

  需要安裝google-perftools和libunwind(32位系統不需要安裝)兩個軟體。

  安裝libunwind庫

  http://download.savannah.gnu.org/releases/libunwind/選擇相應版本。

  wget http://download.savannah.gnu.org/releases/libunwind/libunwind-0.99-beta.tar.gz

  CFLAGS=-fPIC ./configure && make CFLAGS=-fPIC make CFLAGS=-fPIC install

  安裝google-perftools

  wget https://github.com/gperftools/gperftools/releases/download/gperftools-2.5/gperftools-2.5.tar.gz 

  ./confighre  && make && make install 

  echo "/usr/local/lib" > /etc/ld.so.conf.d/usr_local_lib.conf

  ldconfig

  重新編譯之後為Google-perftools建立一個線程目錄,在這裡將檔案放在/tmp/tcmalloc下,並給許可權777

  在Nginx的主設定檔中添加

  

   重啟Nginx。

  可以查看 lsof -n | grep tcmalloc 查看

  Nginx核心最佳化參數

   在Nginx核心參數最佳化主要在Linux系統中針對Nginx應用而進行的系統核心參數最佳化。僅供參考:

  net.ipv4.tcp_max_tw_buckets = 6000

  timewait的數量,預設是180000。

  net.ipv4.ip_local_port_range = 1024 65000

  允許系統開啟的連接埠範圍。

  net.ipv4.tcp_tw_recycle = 1

  啟用timewait快速回收。

  net.ipv4.tcp_tw_reuse = 1

  開啟重用。允許將TIME-WAIT sockets重新用於新的TCP串連。

  net.ipv4.tcp_syncookies = 1

  開啟SYN Cookies,當出現SYN等待隊列溢出時,啟用cookies來處理。

  net.core.somaxconn = 262144

  web應用中listen函數的backlog預設會給我們核心參數的net.core.somaxconn限制到128,而nginx定義的NGX_LISTEN_BACKLOG預設為511,所以有必要調整這個值。
也可以在nginx設定檔的linsten 80 後面加上這個backlog參數,但是不能超過核心裡面設定的數值,如下:

  Linsten 80 backlog=65533;
  net.core.netdev_max_backlog = 262144

  每個網路介面接收資料包的速率比核心處理這些包的速率快時,允許送到隊列的資料包的最大數目。

  net.ipv4.tcp_max_orphans = 262144

  系統中最多有多少個TCP通訊端不被關聯到任何一個使用者檔案控制代碼上。如果超過這個數字,孤兒串連將即刻被複位並列印出警告資訊。這個限制僅僅是為了防止簡單的DoS攻擊,不能過分依靠它或者人為地減小這個值,更應該增加這個值(如果增加了記憶體之後)。

  net.ipv4.tcp_max_syn_backlog = 262144

  記錄的那些尚未收到用戶端確認資訊的串連請求的最大值。對於有128M記憶體的系統而言,預設值是1024,小記憶體的系統則是128。

  net.ipv4.tcp_timestamps = 0

  時間戳記可以避免序號的卷繞。一個1Gbps的鏈路肯定會遇到以前用過的序號。時間戳記能夠讓核心接受這種”異常”的資料包。這裡需要將其關掉。

  net.ipv4.tcp_synack_retries = 1

  為了開啟對端的串連,核心需要發送一個SYN並附帶一個回應前面一個SYN的ACK。也就是所謂三向交握中的第二次握手。這個設定決定了核心放棄串連之前發送SYN+ACK包的數量。

  net.ipv4.tcp_syn_retries = 1

  在核心放棄建立串連之前發送SYN包的數量。

  net.ipv4.tcp_fin_timeout = 1

  如果通訊端由本端要求關閉,這個參數決定了它保持在FIN-WAIT-2狀態的時間。對端可以出錯並永遠不關閉串連,甚至意外當機。預設值是60秒。2.2 核心的通常值是180秒,你可以按這個設定,但要記住的是,即使你的機器是一個輕載的WEB伺服器,也有因為大量的死通訊端而記憶體溢出的風險,FIN- WAIT-2的危險性比FIN-WAIT-1要小,因為它最多隻能吃掉1.5K記憶體,但是它們的生存期長些。

  net.ipv4.tcp_keepalive_time = 30

  當keepalive起用的時候,TCP發送keepalive訊息的頻度。預設是2小時。

   一個完整的核心最佳化配置

  

net.ipv4.ip_forward = 0net.ipv4.conf.default.rp_filter = 1net.ipv4.conf.default.accept_source_route = 0kernel.sysrq = 0kernel.core_uses_pid = 1net.ipv4.tcp_syncookies = 1kernel.msgmnb = 65536kernel.msgmax = 65536kernel.shmmax = 68719476736kernel.shmall = 4294967296net.ipv4.tcp_max_tw_buckets = 6000net.ipv4.tcp_sack = 1net.ipv4.tcp_window_scaling = 1net.ipv4.tcp_rmem = 4096        87380   4194304net.ipv4.tcp_wmem = 4096        16384   4194304net.core.wmem_default = 8388608net.core.rmem_default = 8388608net.core.rmem_max = 16777216net.core.wmem_max = 16777216net.core.netdev_max_backlog = 262144net.core.somaxconn = 262144net.ipv4.tcp_max_orphans = 3276800net.ipv4.tcp_max_syn_backlog = 262144net.ipv4.tcp_timestamps = 0net.ipv4.tcp_synack_retries = 1net.ipv4.tcp_syn_retries = 1net.ipv4.tcp_tw_recycle = 1net.ipv4.tcp_tw_reuse = 1net.ipv4.tcp_mem = 94500000 915000000 927000000net.ipv4.tcp_fin_timeout = 1net.ipv4.tcp_keepalive_time = 30net.ipv4.ip_local_port_range = 1024    65000

一個簡單的nginx最佳化設定檔

user  www www;worker_processes 8;worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000;error_log  /www/log/nginx_error.log  crit;pid        /usr/local/nginx/nginx.pid;worker_rlimit_nofile 204800;events{  use epoll;  worker_connections 204800;}http{  include       mime.types;  default_type  application/octet-stream;  charset  utf-8;  server_names_hash_bucket_size 128;  client_header_buffer_size 2k;  large_client_header_buffers 4 4k;  client_max_body_size 8m;  sendfile on;  tcp_nopush     on;  keepalive_timeout 60;  fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2                keys_zone=TEST:10m                inactive=5m;  fastcgi_connect_timeout 300;  fastcgi_send_timeout 300;  fastcgi_read_timeout 300;  fastcgi_buffer_size 16k;  fastcgi_buffers 16 16k;  fastcgi_busy_buffers_size 16k;  fastcgi_temp_file_write_size 16k;  fastcgi_cache TEST;  fastcgi_cache_valid 200 302 1h;  fastcgi_cache_valid 301 1d;  fastcgi_cache_valid any 1m;  fastcgi_cache_min_uses 1;  fastcgi_cache_use_stale error timeout invalid_header http_500;    open_file_cache max=204800 inactive=20s;  open_file_cache_min_uses 1;  open_file_cache_valid 30s;    tcp_nodelay on;    gzip on;  gzip_min_length  1k;  gzip_buffers     4 16k;  gzip_http_version 1.0;  gzip_comp_level 2;  gzip_types       text/plain application/x-javascript text/css application/xml;  gzip_vary on;  server  {    listen       80 backlog=65533;    server_name  www.linuxyan.com;    index index.php index.htm;    root  /www/html/;    location /status    {        stub_status on;    }    location ~ .*\.(php|php5)?$    {        fastcgi_pass 127.0.0.1:9000;        fastcgi_index index.php;        include fcgi.conf;    }    location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|js|css)$    {      expires      30d;    }    log_format  access  '$remote_addr - $remote_user [$time_local] "$request" '              '$status $body_bytes_sent "$http_referer" '              '"$http_user_agent" $http_x_forwarded_for';    access_log  /www/log/access.log  access;      }}

  關於FastCGI的幾個指令

  fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2 keys_zone=TEST:10m inactive=5m;

  這個指令為FastCGI緩衝指定一個路徑,目錄結構等級,關鍵字地區儲存時間和非活動刪除時間。

  fastcgi_connect_timeout 300;

  指定串連到後端FastCGI的逾時時間。

  fastcgi_send_timeout 300;

  向FastCGI傳送請求的逾時時間,這個值是指已經完成兩次握手後向FastCGI傳送請求的逾時時間。

  fastcgi_read_timeout 300;

  接收FastCGI應答的逾時時間,這個值是指已經完成兩次握手後接收FastCGI應答的逾時時間。

  fastcgi_buffer_size 16k;

  指定讀取FastCGI應答第一部分需要用多大的緩衝區,這裡可以設定為fastcgi_buffers指令指定的緩衝區大小,上面的指令指定它將使用1個16k的緩衝區去讀取應答的第一部分,即應答頭,其實這個應答頭一般情況下都很小(不會超過1k),但是你如果在fastcgi_buffers指令中指定了緩衝區的大小,那麼它也會分配一個fastcgi_buffers指定的緩衝區大小去緩衝。

  fastcgi_buffers 16 16k;

  指定本地需要用多少和多大的緩衝區來緩衝FastCGI的應答,如上所示,如果一個php指令碼所產生的頁面大小為256k,則會為其分配16個16k的緩衝區來緩衝,如果大於256k,增大於256k的部分會緩衝到fastcgi_temp指定的路徑中,當然這對伺服器負載來說是不明智的方案,因為記憶體中處理資料速度要快於硬碟,通常這個值的設定應該選擇一個你的網站中的php指令碼所產生的頁面大小的中間值,比如你的網站大部分指令碼所產生的頁面大小為256k就可以把這個值設定為16 16k,或者4 64k 或者64 4k,但很顯然,後兩種並不是好的設定方法,因為如果產生的頁面只有32k,如果用4 64k它會分配1個64k的緩衝區去緩衝,而如果使用64 4k它會分配8個4k的緩衝區去緩衝,而如果使用16 16k則它會分配2個16k去快取頁面面,這樣看起來似乎更加合理。

  fastcgi_busy_buffers_size 32k;

  這個指令我也不知道是做什麼用,只知道預設值是fastcgi_buffers的兩倍。

  fastcgi_temp_file_write_size 32k;

  在寫入fastcgi_temp_path時將用多大的資料區塊,預設值是fastcgi_buffers的兩倍。

  fastcgi_cache TEST

  開啟FastCGI緩衝並且為其制定一個名稱。個人感覺開啟緩衝非常有用,可以有效降低CPU負載,並且防止502錯誤。但是這個緩衝會引起很多問題,因為它緩衝的是動態網頁面。具體使用還需根據自己的需求。

  fastcgi_cache_valid 200 302 1h;  fastcgi_cache_valid 301 1d;  fastcgi_cache_valid any 1m;

  為指定的應答代碼指定緩衝時間,如上例中將200,302應答緩衝一小時,301應答緩衝1天,其他為1分鐘。

  fastcgi_cache_min_uses 1;

  緩衝在fastcgi_cache_path指令inactive參數值時間內的最少使用次數,如上例,如果在5分鐘內某檔案1次也沒有被使用,那麼這個檔案將被移除。

  fastcgi_cache_use_stale error timeout invalid_header http_500;

  不知道這個參數的作用,猜想應該是讓nginx知道哪些類型的緩衝是沒用的。 以上為nginx中FastCGI相關參數,另外,FastCGI自身也有一些配置需要進行最佳化,如果你使用php-fpm來管理FastCGI,可以修改設定檔中的以下值:

60

  同時處理的並發請求數,即它將開啟最多60個子線程來處理並發串連。

  102400

  最多開啟檔案數。

  204800

  每個進程在重設之前能夠執行的最多請求數。

 

  

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.