百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Python爬虫BeautifulSoup的高级用法

itomcoil 2025-02-03 13:21 30 浏览

BeautifulSoup是在Python中的一个非常流行的网页解析库,能够有效的帮助开发者从HTML或者是XML数据中提取想要的内容。虽然 BeautifulSoup入门简单,但是它也还有一些高级的使用功能,下面我们就来介绍一下 BeautifulSoup 中的一些高级用法来帮助开发者更好的使用这个库来实现网页数据的抓取和分析。

使用CSS选择器进行查找

BeautifulSoup中提供了很多基础的方法来进行元素的查找和数据的提取,比较常用的类似于 find()find_all()等,当然它还支持了通过CSS的选择器来进行元素的查找,有点类似于jQuery的选择器语法,如下所示。

from bs4 import BeautifulSoup

html = """
<html>
    <body>
        <div class="content">
            <p class="first">Hello, World!</p>
            <p class="second">Python is great!</p>
        </div>
        <div class="footer">
            <p>Footer Content</p>
        </div>
    </body>
</html>
"""

soup = BeautifulSoup(html, 'html.parser')
# 使用 CSS 选择器
first_paragraph = soup.select('div.content p.first')
print(first_paragraph[0].text)

select()方法允许开发者通过类似于CSS选择器的语法来进行元素的查找,例如上面的代码中,我们通过 div.content p.first 选择了 class="first"<p> 标签。当然如果匹配到了多个元素的时候,select()就会返回一个列表,这个时候,我们就需要通过循环索引来获取元素数据。

利用正则表达式匹配标签

在实际开发中,我们可以通过BeautifulSoupre模块结合来通过正则表达式的方式来匹配HTML标签。如下所示。

import re
from bs4 import BeautifulSoup

html = """
<html>
    <body>
        <p class="text">Hello</p>
        <p class="text">World</p>
        <p class="number">123</p>
    </body>
</html>
"""

soup = BeautifulSoup(html, 'html.parser')
# 使用正则表达式查找 class 属性包含 "text" 的所有 <p> 标签
text_paragraphs = soup.find_all('p', class_=re.compile('text'))
for p in text_paragraphs:
    print(p.text)

通过class_ 参数传入一个正则表达式,在上面的代码实现中re.compile('text') 会匹配任何 class 属性中包含 text 字样的 <p> 标签。通过这种正则表达式可以增加程序处理的灵活性,尤其是在遇到一些需要特殊复杂处理的HTML内容的时候,这种方式就比较高效了。

获取元素的属性和内容

除了上面提到的两种方式,BeautifulSoup为了方便从标签中提取属性和文本内容,除了支持text 属性之外,还支持了通过get()方法来提取标签中的其他属性值,如下所示。

from bs4 import BeautifulSoup

html = """
<html>
    <body>
        <a href="https://example.com" class="link">Click here</a>
        <img src="image.jpg" alt="A beautiful image">
    </body>
</html>
"""

soup = BeautifulSoup(html, 'html.parser')
# 获取链接的 href 属性
link = soup.find('a')
print(link.get('href'))  # 输出: https://example.com
# 获取图片的 alt 属性
image = soup.find('img')
print(image.get('alt'))  # 输出: A beautiful image

通过get('attribute') 方法我们可以获取到标签的指定属性,例如link.get('href') 会返回 <a> 标签的 href 属性值。但是需要注意这个方法并不会抛出异常,即使出现了属性不存在的情况,也只会返回None而不会报错。

使用descendants和children遍历子节点

在BeautifulSoup中,我们可以通过descendantschildren 属性来遍历标签的子节点或者是后代的其他节点,其中children仅遍历直接子节点,而descendants会遍历所有后代节点,包括孙子、曾孙等,如下所示,展示了如何使用这两个属性。

from bs4 import BeautifulSoup

html = """
<html>
    <body>
        <div>
            <p>First Paragraph</p>
            <p>Second Paragraph</p>
        </div>
        <div>
            <p>Third Paragraph</p>
        </div>
    </body>
</html>
"""

soup = BeautifulSoup(html, 'html.parser')
# 使用 descendants 遍历所有子节点
for elem in soup.body.descendants:
    if isinstance(elem, str):  # 过滤掉文本节点
        print(elem.strip())

在上面的实现中descendants会返回文档树中的所有的子节点,我们可以通过递归的方式来进行访问,而children则是只会返回当前标签的直接子节点,我们可以直接遍历这些节点。

遍历父节点和兄弟节点

当然除了遍历子节点之外,BeautifulSoup 也提供了向上和横向遍历的功能,例如我们可以通过 parent, parents, next_sibling, previous_sibling 等属性来方便地访问标签的父节点和兄弟节点,如下所示。

from bs4 import BeautifulSoup

html = """
<html>
    <body>
        <div>
            <p>First Paragraph</p>
            <p>Second Paragraph</p>
        </div>
    </body>
</html>
"""

soup = BeautifulSoup(html, 'html.parser')
# 获取第一个 <p> 标签的父节点
first_p = soup.find('p')
print(first_p.parent.name)  # 输出: div
# 获取兄弟节点
second_p = first_p.find_next_sibling('p')
print(second_p.text)  # 输出: Second Paragraph

通过parent属性返回当前标签的父节点,通过parents属性可以返回当前节点的所有的祖先节点,然后可以通过next_sibling来返回当前标签之后的兄弟节点,而previous_sibling则是用来返回当前标签之前的所有兄弟节点。

修改 HTML 内容

除了获取数据之外,BeautifulSoup还支持了对于数据的修改操作,如下所示,我们可以修改标签的文本内容、结构属性等内容。

from bs4 import BeautifulSoup

html = """
<html>
    <body>
        <p class="text">Old Text</p>
    </body>
</html>
"""

soup = BeautifulSoup(html, 'html.parser')
# 修改文本内容
p_tag = soup.find('p', class_='text')
p_tag.string = "New Text"
print(soup.prettify())

处理 JavaScript 生成的内容

在很多网站处理页面内容的时候,可能会用到动态JavaScript生成的内容,但是BeautifulSoup 本身并不支持处理 JavaScript 生成的动态内容,因此在抓取动态网页的时候,我们需要通过 SeleniumPlaywright 等工具来加载 JavaScript 内容,然后将页面传递给 BeautifulSoup 进行解析,如下所示。

from selenium import webdriver
from bs4 import BeautifulSoup

# 使用 Selenium 获取渲染后的页面
driver = webdriver.Chrome()
driver.get('https://example.com')
html = driver.page_source
driver.quit()

# 使用 BeautifulSoup 解析
soup = BeautifulSoup(html, 'html.parser')
print(soup.prettify())

通过Selenium来模拟浏览器行为,然后等待数据渲染完成之后,获取到HTML的内容,最终通过BeautifulSoup 进行后续的解析和数据提取。

总结

BeautifulSoup提供了强大的网页解析功能不仅可以轻松提取静态页面中的数据,还可以配合正则表达式、CSS 选择器等进行更复杂的查找操作。掌握这些高级用法,能够帮助开发者更加高效地处理各种HTML页面,并从中提取有用的信息。

相关推荐

selenium(WEB自动化工具)

定义解释Selenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7,8,9,10,11),MozillaF...

开发利器丨如何使用ELK设计微服务中的日志收集方案?

【摘要】微服务各个组件的相关实践会涉及到工具,本文将会介绍微服务日常开发的一些利器,这些工具帮助我们构建更加健壮的微服务系统,并帮助排查解决微服务系统中的问题与性能瓶颈等。我们将重点介绍微服务架构中...

高并发系统设计:应对每秒数万QPS的架构策略

当面试官问及"如何应对每秒几万QPS(QueriesPerSecond)"时,大概率是想知道你对高并发系统设计的理解有多少。本文将深入探讨从基础设施到应用层面的解决方案。01、理解...

2025 年每个 JavaScript 开发者都应该了解的功能

大家好,很高兴又见面了,我是"高级前端进阶",由我带着大家一起关注前端前沿、深入前端底层技术,大家一起进步,也欢迎大家关注、点赞、收藏、转发。1.Iteratorhelpers开发者...

JavaScript Array 对象

Array对象Array对象用于在变量中存储多个值:varcars=["Saab","Volvo","BMW"];第一个数组元素的索引值为0,第二个索引值为1,以此类推。更多有...

Gemini 2.5编程全球霸榜,谷歌重回AI王座,神秘模型曝光,奥特曼迎战

刚刚,Gemini2.5Pro编程登顶,6美元性价比碾压Claude3.7Sonnet。不仅如此,谷歌还暗藏着更强的编程模型Dragontail,这次是要彻底翻盘了。谷歌,彻底打了一场漂亮的翻...

动力节点最新JavaScript教程(高级篇),深入学习JavaScript

JavaScript是一种运行在浏览器中的解释型编程语言,它的解释器被称为JavaScript引擎,是浏览器的一部分,JavaScript广泛用于浏览器客户端编程,通常JavaScript脚本是通过嵌...

一文看懂Kiro,其 Spec工作流秒杀Cursor,可移植至Claude Code

当Cursor的“即兴编程”开始拖累项目质量,AWS新晋IDEKiro以Spec工作流打出“先规范后编码”的系统工程思维:需求-设计-任务三件套一次生成,文档与代码同步落地,复杂项目不...

「晚安·好梦」努力只能及格,拼命才能优秀

欢迎光临,浏览之前点击上面的音乐放松一下心情吧!喜欢的话给小编一个关注呀!Effortscanonlypass,anddesperatelycanbeexcellent.努力只能及格...

JavaScript 中 some 与 every 方法的区别是什么?

大家好,很高兴又见面了,我是姜茶的编程笔记,我们一起学习前端相关领域技术,共同进步,也欢迎大家关注、点赞、收藏、转发,您的支持是我不断创作的动力在JavaScript中,Array.protot...

10个高效的Python爬虫框架,你用过几个?

小型爬虫需求,requests库+bs4库就能解决;大型爬虫数据,尤其涉及异步抓取、内容管理及后续扩展等功能时,就需要用到爬虫框架了。下面介绍了10个爬虫框架,大家可以学习使用!1.Scrapysc...

12个高效的Python爬虫框架,你用过几个?

实现爬虫技术的编程环境有很多种,Java、Python、C++等都可以用来爬虫。但很多人选择Python来写爬虫,为什么呢?因为Python确实很适合做爬虫,丰富的第三方库十分强大,简单几行代码便可实...

pip3 install pyspider报错问题解决

运行如下命令报错:>>>pip3installpyspider观察上面的报错问题,需要安装pycurl。是到这个网址:http://www.lfd.uci.edu/~gohlke...

PySpider框架的使用

PysiderPysider是一个国人用Python编写的、带有强大的WebUI的网络爬虫系统,它支持多种数据库、任务监控、项目管理、结果查看、URL去重等强大的功能。安装pip3inst...

「机器学习」神经网络的激活函数、并通过python实现激活函数

神经网络的激活函数、并通过python实现whatis激活函数感知机的网络结构如下:左图中,偏置b没有被画出来,如果要表示出b,可以像右图那样做。用数学式来表示感知机:上面这个数学式子可以被改写:...