目录

爬虫系列之如果避免被抓(持续更新)

1、实现DNS缓冲

  • 因为网站有日志,运维会定时查看这个 发现异常会封锁ip
  • 实现dns缓存 就可以避免被发现异常访问