如何使用 Python 爬虫抓取带有超链接的文本字段?
今天给大家带来了,其中涉及到的知识点包括等等,无论你是小白还是老手,都适合看一看哦~有好的建议也欢迎大家在评论留言,若是看完有所收获,也希望大家能多多点赞支持呀!一起加油学习~
如何修改代码以爬取带有超链接的文本字段
在使用python爬虫获取网页正文时,可能会遇到无法抓取带有超链接的文本片段的情况。下面介绍一种方法修改代码来解决此问题:
首先,查看网页结构,确认所要抓取的文本段确实被包裹在<a>标签内。然后修改xpath路径以获取所有<p>标签下的所有节点,其中包括文本和标签:
content = html.xpath('//div[@class="f14 l24 news_content mt25 zoom"]/p//node()')
之后,在处理内容时,对于每个节点判断其类型:如果是文本节点,则保留并追加到结果中;如果是<a>标签,则只保留其文本部分并追加到结果中:
import requests from lxml import etree # 爬取并转化为html格式 base_url = "https://www.solidwaste.com.cn/news/342864.html" resp = requests.get(url=base_url) html = etree.HTML(resp.text) # 更换编码方式为网页对应的编码 encod = html.xpath('//meta[1]/@content') if encod != []: encod = encod[0].split("=")[-1] resp.encoding = encod html = etree.HTML(resp.text) # 获取网页正文 content = html.xpath('//div[@class="f14 l24 news_content mt25 zoom"]/p//node()') content_deal = "" for node in content: if isinstance(node, etree._ElementUnicodeResult): content_deal += node.strip() + "\n" elif isinstance(node, etree._Element) and node.tag == 'a': content_deal += node.text.strip() + "\n" print(content_deal)
通过这些修改,您应该可以成功爬取带有超链接的文本字段。
到这里,我们也就讲完了《如何使用 Python 爬虫抓取带有超链接的文本字段?》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注公众号,带你了解更多关于的知识点!