为什么用 Python 获取的网址带有括号和单引号?
学习要努力,但是不要急!今天的这篇文章《为什么用 Python 获取的网址带有括号和单引号?》将会介绍到等等知识点,如果你想深入学习文章,可以关注我!我会持续更新相关文章的,希望对大家都能有所帮助!
我用 python 获取的网址为何带有括号和单引号?
在编写爬虫程序时,你可能会遇到获取的网址中包含括号和单引号的情况,这可能会给后续处理带来不便。下面我们将探讨导致这种情况的原因并提供解决方案:
原因:
你使用的解析工具(如 beautifulsoup)在解析 html 时,会将原始的 html 字符串转换为 python 对象。html 中的某些特殊字符,如 <、>、& 和 ‘, 在 python 中具有特殊的含义,因此在解析时需要进行转义。
默认情况下,beautifulsoup 使用 html5 的解析器,它会将这些特殊字符转义成对应的 html 实体,如 < 表示 <、> 表示 >、& 表示 & 和 ‘ 表示 ‘. 这些转义对于避免在 python 中产生语法错误很重要。
解决方案:
要获取不带括号和单引号的网址,你可以执行以下操作:
- 使用正则表达式去除 html 实体:使用正则表达式 re.sub(‘&.*?;’, ”, link) 将 html 实体替换为空字符串。
- 使用 lxml 解析器:lxml 是另一个流行的 html 解析库,其默认解析器不会将特殊字符转义成 html 实体。只需将 beautifulsoup(html, “html5lib”) 替换为 etree.html(html) 即可。
- 手动解码转义字符:你可以使用 html.unescape() 函数手动解码转义字符,即将 ‘<a href=”url”>’ 解码为 ‘<a href=”url”>’。
修改后的代码示例如下:
import requests from lxml import etree url = 'http://www.prnasia.com/m/mediafeed/rss?id=2303&t=240' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.66 Safari/537.36' } res = requests.get(url, headers=headers) res_dome = etree.HTML(res.text) for link in res_dome.xpath('//h3/a/@href'): print(link) # 无括号和单引号的网址
终于介绍完啦!小伙伴们,这篇关于《为什么用 Python 获取的网址带有括号和单引号?》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~公众号也会发布文章相关知识,快来关注吧!