可以用爬虫来获取一些网站的内容,那么一些网站会做反爬虫程序么?难做么?会对搜索引擎造成什么影响?

 我来答
lyz810
2014-02-23 · 知道合伙人互联网行家
lyz810
知道合伙人互联网行家
采纳数:7531 获赞数:31777
前端开发工程师

向TA提问 私信TA
展开全部
正规情况下可以用robots协议阻止搜索引擎爬取网站
但并不是所有的搜索引擎都遵循robots协议(某些知名搜索引擎也不遵守,该协议不是强制遵循的)
一般反爬虫的程序最简单的方法就是通过UserAgent识别爬虫,但并不是所有爬虫都有明确的UserAgent,还有些不知名的搜索引擎不设置自己独有的UserAgent,同时UserAgent也可以被任意的伪造,所以并不能保证完全过滤一些爬虫。
为了更进一步识别爬虫,只能通过限制某个IP的访问,如果IP在变化也很难阻止其爬行,仅能根据一些访问行为进行分析是否为爬虫自动抓取,如果是爬虫,则可以用一个403返回码阻止网页的显示。这样搜索引擎抓到的页面都是403错误页面,具体内容无法抓取。
如果有人专门想要抓取你的网站内容,它可以专门定制一种策略来想办法模拟人工访问,很难做到彻底阻止。
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式