正式站系统是Ubuntu 16.04.6
一、今天一个项目有百度爬出,在nginx中封掉还在一直爬取,都403还不停爬取
二、在uwf封掉爬出ip,想封掉80端口没有用,然后封掉整个网段还是没有用,尴尬
三、放出终极大招
UFW(iptables)规则的匹配基于规则出现的顺序,
一旦匹配某个规则,检查便会停止。因此,如果某个规则允许访问TCP端口22(如使用udo ufw allow 22),
后面另一个规则指示拦截某个IP地址(如使用 ufw deny proto tcp from 202.54.1.1 to any port 22)。
最终,允许访问TCP端口22的规则会被使用,而后一个拦截黑客IP地址 202.54.1.1 却没有被使用。
这都是由于规则的顺序造成的。为避免这类问题,
你需要编辑 /etc/ufw/before.rules文件,
在“# End required lines”之后"Block an IP Address"添加规则。
在/etc/ufw/before.rules文件添加规则之后里面生效了,百度爬虫就死翘翘了# End required lines# Block spammers
-A ufw-before-input -s 123.125.71.0/24 -j DROP
-A ufw-before-input -s 220.181.108.0/24 -j DROP保存并关闭文件。***,让防火墙重新加载配置信息:sudo ufw reload