为什么同一URL在Windows上正常爬取而在Linux上返回403?
今天将给大家带来,感兴趣的朋友请继续看下去吧!以下内容将会涉及到等等知识点,如果你是正在学习文章或者已经是大佬级别了,都非常欢迎也希望大家都能给我建议评论哈~希望能帮助到大家!
爬虫求助:同一url在windows上正常爬取,在linux上却返回403
问题描述:
如图所示,使用python脚本爬取新浪新闻的json格式异步加载新闻信息时,在windows系统上可以正常爬取和解析,但在linux系统上却报403错误。
代码如下:
import requests headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; U; PPC Mac OS X; en-US; rv:1.0.1) Gecko/20021104 Chimera/0.6'} url = 'https://feed.mix.sina.com.cn/api/roll/get?pageid=153&lid=2509&k=&num=50&page=1' resp = requests.get(url, headers=headers) print(resp.status_code)
经测试,使用curl命令也能访问该链接。
解决方案猜测:
有一种可能的原因是linux系统的ip存在问题。
今天关于《为什么同一URL在Windows上正常爬取而在Linux上返回403?》的内容介绍就到此结束,如果有什么疑问或者建议,可以在公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!