Python 爬虫使用代理 IP 访问淘宝时无法登录,如何解决“selenium.common.exceptions.InvalidCookieDomainException”错误?
大家好,我们又见面了啊~本文的内容中将会涉及到等等。如果你正在学习文章相关知识,欢迎关注我,以后会给大家带来更多文章相关文章,希望我们能一起进步!下面就开始本文的正式内容~
在使用 python 爬虫模拟访问淘宝时,使用代理 ip 后无法登录,出现 “selenium.common.exceptions.invalidcookiedomainexception: message: invalid cookie domain” 错误。
检查代码后发现,问题在于 get_ip() 函数返回的 ip 地址格式不正确。原代码使用 str() 将 ip 对象转换成字符串,但实际上它的格式应该是 `”{ip}:{port}”,其中 {ip} 和 {port} 分别为 ip 地址和端口号。
正确修改后的代码如下:
def get_ip(): with open('./ip.text', 'r', encoding='utf8') as f: ip_list = json.loads(f.read()) num = random.randint(0, len(ip_list)) str = "{0}:{1}".format(ip_list[num].get('ip'), ip_list[num].get('port')) return str
这样,get_ip() 返回的 ip 地址格式就正确了,代码就可以正常运行,使用代理 ip 登陆淘宝。
本篇关于《Python 爬虫使用代理 IP 访问淘宝时无法登录,如何解决“selenium.common.exceptions.InvalidCookieDomainException”错误?》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注公众号!