可以用爬虫来获取一些网站的内容,那么一些网站会做反爬虫程序么?难做么?会对搜索引擎造成什么影响?
1个回答
展开全部
正规情况下可以用robots协议阻止搜索引擎爬取网站
但并不是所有的搜索引擎都遵循robots协议(某些知名搜索引擎也不遵守,该协议不是强制遵循的)
一般反爬虫的程序最简单的方法就是通过UserAgent识别爬虫,但并不是所有爬虫都有明确的UserAgent,还有些不知名的搜索引擎不设置自己独有的UserAgent,同时UserAgent也可以被任意的伪造,所以并不能保证完全过滤一些爬虫。
为了更进一步识别爬虫,只能通过限制某个IP的访问,如果IP在变化也很难阻止其爬行,仅能根据一些访问行为进行分析是否为爬虫自动抓取,如果是爬虫,则可以用一个403返回码阻止网页的显示。这样搜索引擎抓到的页面都是403错误页面,具体内容无法抓取。
如果有人专门想要抓取你的网站内容,它可以专门定制一种策略来想办法模拟人工访问,很难做到彻底阻止。
但并不是所有的搜索引擎都遵循robots协议(某些知名搜索引擎也不遵守,该协议不是强制遵循的)
一般反爬虫的程序最简单的方法就是通过UserAgent识别爬虫,但并不是所有爬虫都有明确的UserAgent,还有些不知名的搜索引擎不设置自己独有的UserAgent,同时UserAgent也可以被任意的伪造,所以并不能保证完全过滤一些爬虫。
为了更进一步识别爬虫,只能通过限制某个IP的访问,如果IP在变化也很难阻止其爬行,仅能根据一些访问行为进行分析是否为爬虫自动抓取,如果是爬虫,则可以用一个403返回码阻止网页的显示。这样搜索引擎抓到的页面都是403错误页面,具体内容无法抓取。
如果有人专门想要抓取你的网站内容,它可以专门定制一种策略来想办法模拟人工访问,很难做到彻底阻止。
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询