一、服务器全局限IP #vi nginx.conf allow 10.115.0.116; #允许的IP deny all; 二、站点限IP #vi vhosts.conf 站点全局限IP: location / { index index.html index.htm index.php; allow 10.115.0.116; deny all; 站点目录限制 location ^~ /test/ { allow 10.115.0.116; deny all; 注意事项: 1. den
丝画阁 阅读:919评论:82018-06-20 22:49:11
1、查找服务器所有访问者ip方法: awk '{print $1}' nginx_access.log |sort |uniq -c|sort -n nginx.access.log 为nginx访问日志文件所在路径 会到如下结果,前面是ip的访问次数,后面是ip,很明显我们需要把访问次数多的ip并且不是蜘蛛的ip屏蔽掉,如下面结果, 若 66.249.79.84 不为蜘蛛则需要屏蔽: 89 106.75.133.167 90 118.123.114.57 91 101.78.0.210 92
丝画阁 阅读:870评论:82018-06-20 22:46:31
在生产环境中,网站需要授权访问的场景非常之多,比如数据库管理工具:phpMyAdmin、MysqlUp、BackUp等等。有时还需要一些私有目录文件的保护,为了实现这一伟大目标,我们就需要用到Nginx location匹配规则,下面将进行讲解。 1.创建htpasswd文件 $ vim /usr/local/nginx/conf/htpasswd添加以下内容:renwole:xEmWnqjTJipoE此文件的书写格式是: 用户名:密码注意:每行一个用户和密码,这里的password不是明文,而是将password进行crypt(3)加密后的字符串。
丝画阁 阅读:948评论:82018-05-31 17:06:18
Nginx的默认配置文件详细解释如下 #运行用户 user nobody; #启动进程,通常设置成和cpu的数量相等 worker_processes 1; #全局错误日志及PID文件 #error_log logs/error.log; #error_log logs/error.log notice; #error_log logs/error.log info; #pid logs/nginx.pid;
丝画阁 阅读:766评论:82018-05-15 15:52:49
假定一个场景:某个网站它可能不希望被网络爬虫抓取,例如测试环境不希望被抓取,以免对用户造成误导,那么需要在该网站中申明,本站不希望被抓取。有如下方法: 方法一:修改nginx.conf,禁止网络爬虫的ua,返回403。 server { listen 80; server_name 127.0.0.1; #添加如下内容即可防止爬虫 if ($http_user_agent ~* "qihoobot|Baiduspider|Googlebo
丝画阁 阅读:721评论:82018-05-10 09:53:46
关于nginx防盗链的方法网上有很多教程,都可以用,但是我发现很多教程并不完整,所做的防盗链并不是真正的彻底的防盗链!
丝画阁 阅读:913评论:82018-05-10 09:51:26
蜘蛛抓取量骤增,导致服务器负载很高。最终用nginx的ngx_http_limit_req_module模块限制了百度蜘蛛的抓取频率。每分钟允许百度蜘蛛抓取200次,多余的抓取请求返回503。
丝画阁 阅读:862评论:82018-05-10 09:50:29
安装 本例中我使用的版本为: nginx-1.11.5 pcre-8.39 zlib-1.2.8 openssl-1.0.2j 1. 下载所需依赖包 (1) gzip模块需要zlib库:官网地址(http://www.zlib.net/zlib-1.2.11.tar.gz) (2) rewrite模块需要pcre库:官网地址(https://ftp.pcre.org/pub/p
丝画阁 阅读:657评论:82018-01-10 17:00:53
本站部分内容来源网络及网友上传,本站未必能一一鉴别其是否为公共版权或其版权归属,如果您认为侵犯您的权利,本站将表示非常抱歉!
请您速联系本站,本站一经核实,立即删除。删文删帖联系【2789291421@qq.com】