python爬虫在爬B站网页时出现403错误,已经添加了ua还是出错怎么办? 20 我来答 1个回答 #合辑# 面试问优缺点怎么回答最加分? 百度网友77e799f 2020-03-26 · TA获得超过102个赞 知道小有建树答主 回答量:137 采纳率:100% 帮助的人:25.8万 我也去答题访问个人页 关注 展开全部 403是禁止访问,就是服务器不让你访问他的网站。爬B站需要添加虚拟的浏览器信息,让服务器以为你是真人而不是解析器。 更多追问追答 追问 我应该加什么样的信息才能访问B站呢 追答 可以按F12查看你的浏览器信息,按字典形式写在程序中,网上可以查到详细 追问 这个我实在不太懂。主要是哪些信息要加进去啊 本回答被网友采纳 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2018-01-24 Python爬虫采集遇到403问题怎么办? 1 2016-03-31 关于Python爬虫 403的错误 4 2017-11-20 python爬虫,遇到403 forbidden,求助 2017-10-16 B站python爬虫 解码出错 2015-08-24 python爬虫通过header伪装后依旧403ERROR 3 2017-08-19 python爬虫爬取豆瓣影评返回403怎么办,代理IP和co... 2018-02-06 请问爬虫时遇到网页的Request URL是404要如何解决... 1 2020-01-06 python爬虫对于爬取数据时连接终止的错误怎么处理? 更多类似问题 > 为你推荐: