#运行用户

user nobody;

#启动进程,通常设置成和cpu的数量相等

worker_processes  1;

 

#全局错误日志及PID文件

#error_log  logs/error.log;

#error_log  logs/error.log  notice;

#error_log  logs/error.log  info;

 

#pid        logs/nginx.pid;

 

#工作模式及连接数上限

events {

    #epoll是多路复用IO(I/O Multiplexing)中的一种方式,

    #仅用于linux2.6以上内核,可以大大提高nginx的性能

    use   epoll; 

 

    #单个后台worker process进程的最大并发链接数    

    worker_connections  1024;

 

    # 并发总数是 worker_processes 和 worker_connections 的乘积

    # 即 max_clients = worker_processes * worker_connections

    # 在设置了反向代理的情况下,max_clients = worker_processes * worker_connections / 4  为什么

    # 为什么上面反向代理要除以4,应该说是一个经验值

    # 根据以上条件,正常情况下的Nginx Server可以应付的最大连接数为:4 * 8000 = 32000

    # worker_connections 值的设置跟物理内存大小有关

    # 因为并发受IO约束,max_clients的值须小于系统可以打开的最大文件数

    # 而系统可以打开的最大文件数和内存大小成正比,一般1GB内存的机器上可以打开的文件数大约是10万左右

    # 我们来看看360M内存的VPS可以打开的文件句柄数是多少:

    # $ cat /proc/sys/fs/file-max

    # 输出 34336

    # 32000 < 34336,即并发连接总数小于系统可以打开的文件句柄总数,这样就在操作系统可以承受的范围之内

    # 所以,worker_connections 的值需根据 worker_processes 进程数目和系统可以打开的最大文件总数进行适当地进行设置

    # 使得并发总数小于操作系统可以打开的最大文件数目

    # 其实质也就是根据主机的物理CPU和内存进行配置

    # 当然,理论上的并发总数可能会和实际有所偏差,因为主机还有其他的工作进程需要消耗系统资源。

    # ulimit -SHn 65535

 

}

 

 

http {

    #设定mime类型,类型由mime.type文件定义

    include    mime.types;

    default_type  application/octet-stream;

    #设定日志格式

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '

                      '$status $body_bytes_sent "$http_referer" '

                      '"$http_user_agent" "$http_x_forwarded_for"';

 

    access_log  logs/access.log  main;

 

    #sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,

    #对于普通应用,必须设为 on,

    #如果用来进行下载等应用磁盘IO重负载应用,可设置为 off,

    #以平衡磁盘与网络I/O处理速度,降低系统的uptime.

    sendfile     on;

    #tcp_nopush     on;

 

    #连接超时时间

    #keepalive_timeout  0;

    keepalive_timeout  65;

    tcp_nodelay     on;

 

    #开启gzip压缩

    gzip  on;

    gzip_disable "MSIE [1-6].";

 

    #设定请求缓冲

    client_header_buffer_size    128k;

    large_client_header_buffers  4 128k;



    #负载均衡配置

    upstream www.baidu.com {

        #upstream的负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的几率越大。

        server 192.168.80.121:80 weight=3;

        server 192.168.80.122:80 weight=2;

        server 192.168.80.123:80 weight=3;


        #nginx的upstream目前支持4种方式的分配

        #1、轮询(默认)

        #每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

        #2、weight

        #指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。

        #例如:

        #upstream bakend {

        #    server 192.168.0.14 weight=10;

        #    server 192.168.0.15 weight=10;

        #}

        #2、ip_hash

        #每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。

        #例如:

        #upstream bakend {

        #    ip_hash;

        #    server 192.168.0.14:88;

        #    server 192.168.0.15:80;

        #}

        #3、fair(第三方)

        #按后端服务器的响应时间来分配请求,响应时间短的优先分配。

        #upstream backend {

        #    server server1;

        #    server server2;

        #    fair;

        #}

        #4、url_hash(第三方)

        #按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

        #例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法

        #upstream backend {

        #    server squid1:3128;

        #    server squid2:3128;

        #    hash $request_uri;

        #    hash_method crc32;

        #}


        #tips:

        #upstream bakend{#定义负载均衡设备的Ip及设备状态}{

        #    ip_hash;

        #    server 127.0.0.1:9090 down;

        #    server 127.0.0.1:8080 weight=2;

        #    server 127.0.0.1:6060;

        #    server 127.0.0.1:7070 backup;

        #}

        #在需要使用负载均衡的server中增加 proxy_pass http://bakend/;


        #每个设备的状态设置为:

        #1.down表示单前的server暂时不参与负载

        #2.weight为weight越大,负载的权重就越大。

        #3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误

        #4.fail_timeout:max_fails次失败后,暂停的时间。

        #5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。


        #nginx支持同时设置多组的负载均衡,用来给不用的server来使用。

        #client_body_in_file_only设置为On 可以讲client post过来的数据记录到文件中用来做debug

        #client_body_temp_path设置记录文件的目录 可以设置最多3层目录

        #location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡

    }


    #设定虚拟主机配置

    server {

        #侦听80端口

        listen    80;

        #定义使用 www.nginx.cn访问

        server_name  www.nginx.cn;

 

        #定义服务器的默认网站根目录位置

        root html;

 

        #设定本虚拟主机的访问日志

        access_log  logs/nginx.access.log  main;

 

        #默认请求

        location / {

            

            #定义首页索引文件的名称

            index index.php index.html index.htm;   

 

        }

location / {

    proxy_pass http://127.0.0.1:8080;

    #设置被代理服务器的端口或套接字,以及URL

    proxy_set_header Host $host;

    proxy_set_header X-Real-IP $remote_addr;

    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

    #以上三行,目的是将代理服务器收到的用户的信息传到真实服务器上

}

 

        # 定义错误提示页面

        error_page   500 502 503 504 /50x.html;

        location = /50x.html {

        }

 

        #静态文件,nginx自己处理

        location ~ ^/(p_w_picpaths|javascript|js|css|flash|media|static)/ {

            

            #过期30天,静态文件不怎么更新,过期可以设大一点,

            #如果频繁更新,则可以设置得小一点。

            expires 30d;

        }

 

        #PHP 脚本请求全部转发到 FastCGI处理. 使用FastCGI默认配置.

        location ~ .php$ {

            fastcgi_pass 127.0.0.1:9000;

            fastcgi_index index.php;

            fastcgi_param  SCRIPT_FILENAME  $document_root$fastcgi_script_name;

            include fastcgi_params;

        }

 

        #禁止访问 .htxxx 文件

            location ~ /.ht {

            deny all;

        }

 

    }

}