首页 新闻 会员 周边 捐助

爬虫,分页爬取403错误.

0
[待解决问题]

跪求大神解答下,今天爬好听轻音乐网,热播榜分页的时候,第一也可以爬取,第二页的url已经拿到,爬取的时候403错误,请问这是什么反爬?测试过和cookie无关,连用浏览器输入第二页的URL都是403错误.

~~非常感谢,

罗素5188的主页 罗素5188 | 初学一级 | 园豆:114
提问于:2020-07-08 23:58
< >
分享
所有回答(3)
0

wireshark抓取正常的页面操作和你程序处理发出的http的协议差别,估计就能找到原因

2012 | 园豆:21645 (高人七级) | 2020-07-09 08:22

是代码问题,非常感谢大家!!请求头里面没有Referer参数,我才学不知道有这个反爬机制,谢谢大家!!!

支持(0) 反对(0) 罗素5188 | 园豆:114 (初学一级) | 2020-07-09 09:49
0

浏览器也是403,就和你爬虫没关系,你应该把链接放出来看一下

yytxdy | 园豆:1680 (小虾三级) | 2020-07-09 09:39

是代码问题,非常感谢大家!!请求头里面没有Referer参数,我才学不知道有这个反爬机制,谢谢大家!!!

支持(0) 反对(0) 罗素5188 | 园豆:114 (初学一级) | 2020-07-09 09:50
0

不用太怀疑就是你代码问题咯代码瞧瞧

小小咸鱼YwY | 园豆:3312 (老鸟四级) | 2020-07-09 09:46

是代码问题,非常感谢大家!!请求头里面没有Referer参数,我才学不知道有这个反爬机制,谢谢大家!!!

支持(0) 反对(0) 罗素5188 | 园豆:114 (初学一级) | 2020-07-09 09:49
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册