BeautifulSoup提取文本技巧全解析
时间:2025-10-14 22:15:38 359浏览 收藏
各位小伙伴们,大家好呀!看看今天我又给各位带来了什么文章?本文标题是《BeautifulSoup提取HTML文本方法详解》,很明显是关于文章的文章哈哈哈,其中内容主要会涉及到等等,如果能帮到你,觉得很不错的话,欢迎各位多多点评和分享!

和标签,并使用get_text()方法干净地获取其内部文本,避免不必要的标签信息,从而高效地进行网页数据抓取。BeautifulSoup基础:解析HTML
在进行网页数据抓取时,BeautifulSoup是一个功能强大且易于使用的Python库,它能够从HTML或XML文件中提取数据。与Scrapy等框架中基于XPath的选择器不同,BeautifulSoup提供了更Pythonic的API来遍历解析树。开始使用BeautifulSoup的第一步是将HTML内容解析成一个可操作的BeautifulSoup对象。
from bs4 import BeautifulSoup
# 示例HTML内容
html_doc = """
<div class="col-12 col-md-8">
<article class="article-main">
<header class="article-header">
<h1 class="article-title" style="font-size: 28px !important; font-family: sans-serif !important;">Presentation: Govt pushes CCS/CCUS development in RI upstream sector</h1>
<div class="article-meta">
<span class="meta-posted">
Monday, August 1 2022 - 04:27PM WIB </span>
</div>
</header>
</article>
</div>
"""
# 创建BeautifulSoup对象
soup = BeautifulSoup(html_doc, 'html.parser')目标HTML结构分析
为了准确地提取所需信息,首先需要理解目标HTML的结构。在上述示例HTML中,我们希望提取文章的标题和发布日期。
- 文章标题: 位于一个
标签内,该标签具有article-title的类名。<h1 class="article-title">...</h1>
- 发布日期: 位于一个标签内,该标签具有meta-posted的类名。
<span class="meta-posted">...</span>
我们的目标是获取这些标签内部的纯文本内容,而不是包含HTML标签的完整字符串。
使用findAll定位特定元素
BeautifulSoup提供了多种方法来定位HTML元素,其中findAll()(或其别名find_all())是最常用的之一。它用于查找所有符合条件的标签,并返回一个列表。
findAll()方法的基本用法是:soup.findAll(name, attrs, recursive, text, limit, **kwargs)。
在这里,我们主要关注name(标签名)和attrs(属性字典)。
定位文章标题:
标题位于
标签中,且其class属性为article-title。titles = soup.findAll('h1', attrs={'class':'article-title'})
# 此时 titles 是一个列表,包含所有匹配的 <h1> 标签对象
# 例如:[<h1 class="article-title" style="...">Presentation: Govt pushes CCS/CCUS development in RI upstream sector</h1>]
定位发布日期:
日期位于标签中,且其class属性为meta-posted。
dates = soup.findAll('span', attrs={'class':'meta-posted'})
# 此时 dates 也是一个列表,包含所有匹配的 <span> 标签对象
# 例如:[<span class="meta-posted">
# Monday, August 1 2022 - 04:27PM WIB </span>]
需要注意的是,findAll()返回的是一个BeautifulSoup标签对象的列表。直接打印这些对象会显示包含HTML标签的完整字符串。
通过get_text()提取纯文本内容
为了从定位到的标签对象中获取纯文本内容,BeautifulSoup提供了get_text()方法。这个方法会移除标签本身,只返回其内部的文本。
我们可以遍历findAll()返回的列表,并对每个标签对象调用get_text()方法。
提取文章标题文本:
for title_tag in titles:
article_title_text = title_tag.get_text()
print(f"文章标题: {article_title_text}")提取发布日期文本:
for date_tag in dates:
published_date_text = date_tag.get_text()
print(f"发布日期: {published_date_text}")
通过这种方式,我们就能获得干净、不含HTML标签的纯文本数据。
完整示例代码
以下是将上述步骤整合到一起的完整代码示例:
from bs4 import BeautifulSoup
# 示例HTML内容
html_doc = """
<div class="col-12 col-md-8">
<article class="article-main">
<header class="article-header">
<h1 class="article-title" style="font-size: 28px !important; font-family: sans-serif !important;">Presentation: Govt pushes CCS/CCUS development in RI upstream sector</h1>
<div class="article-meta">
<span class="meta-posted">
Monday, August 1 2022 - 04:27PM WIB </span>
</div>
</header>
</article>
</div>
"""
# 创建BeautifulSoup对象
soup = BeautifulSoup(html_doc, 'html.parser')
# 提取文章标题
print("--- 提取文章标题 ---")
titles = soup.findAll('h1', attrs={'class':'article-title'})
for title_tag in titles:
print(title_tag.get_text())
# 提取发布日期
print("\n--- 提取发布日期 ---")
dates = soup.findAll('span', attrs={'class':'meta-posted'})
for date_tag in dates:
print(date_tag.get_text())运行上述代码,将得到以下输出:
--- 提取文章标题 ---
Presentation: Govt pushes CCS/CCUS development in RI upstream sector
--- 提取发布日期 ---
Monday, August 1 2022 - 04:27PM WIB 进阶技巧与注意事项
find()与findAll()的选择:
- findAll()(或find_all())返回所有匹配的标签列表。
- find()(或find())只返回第一个匹配的标签。如果确定只有一个目标元素,使用find()更高效且直接。
- 例如,如果确定文章只有一个标题:title_tag = soup.find('h1', attrs={'class':'article-title'}),然后直接 title_tag.get_text()。
处理空白字符:get_text(strip=True)
在上面的日期提取结果中,可以看到日期文本前后存在多余的空白字符。为了清理这些空白,可以在调用get_text()时传入strip=True参数。
for date_tag in dates:
published_date_text = date_tag.get_text(strip=True)
print(f"发布日期 (清理后): {published_date_text}")这将输出:发布日期 (清理后): Monday, August 1 2022 - 04:27PM WIB,使得数据更加整洁。
处理元素不存在的情况:
如果使用find()方法且目标元素不存在,它将返回None。在尝试对None对象调用方法(如get_text())时,会引发AttributeError
文中关于的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《BeautifulSoup提取文本技巧全解析》文章吧,也可关注golang学习网公众号了解相关技术文章。
标签内,该标签具有article-title的类名。<h1 class="article-title">...</h1>
<span class="meta-posted">...</span>
定位文章标题: 标题位于
标签中,且其class属性为article-title。titles = soup.findAll('h1', attrs={'class':'article-title'})
# 此时 titles 是一个列表,包含所有匹配的 <h1> 标签对象
# 例如:[<h1 class="article-title" style="...">Presentation: Govt pushes CCS/CCUS development in RI upstream sector</h1>]
定位发布日期: 日期位于标签中,且其class属性为meta-posted。
dates = soup.findAll('span', attrs={'class':'meta-posted'})
# 此时 dates 也是一个列表,包含所有匹配的 <span> 标签对象
# 例如:[<span class="meta-posted">
# Monday, August 1 2022 - 04:27PM WIB </span>]提取文章标题文本:
for title_tag in titles:
article_title_text = title_tag.get_text()
print(f"文章标题: {article_title_text}")提取发布日期文本:
for date_tag in dates:
published_date_text = date_tag.get_text()
print(f"发布日期: {published_date_text}")find()与findAll()的选择:
- findAll()(或find_all())返回所有匹配的标签列表。
- find()(或find())只返回第一个匹配的标签。如果确定只有一个目标元素,使用find()更高效且直接。
- 例如,如果确定文章只有一个标题:title_tag = soup.find('h1', attrs={'class':'article-title'}),然后直接 title_tag.get_text()。
处理空白字符:get_text(strip=True) 在上面的日期提取结果中,可以看到日期文本前后存在多余的空白字符。为了清理这些空白,可以在调用get_text()时传入strip=True参数。
for date_tag in dates:
published_date_text = date_tag.get_text(strip=True)
print(f"发布日期 (清理后): {published_date_text}")这将输出:发布日期 (清理后): Monday, August 1 2022 - 04:27PM WIB,使得数据更加整洁。
处理元素不存在的情况: 如果使用find()方法且目标元素不存在,它将返回None。在尝试对None对象调用方法(如get_text())时,会引发AttributeError
-
502 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
281 收藏
-
481 收藏
-
156 收藏
-
434 收藏
-
343 收藏
-
348 收藏
-
332 收藏
-
433 收藏
-
352 收藏
-
122 收藏
-
439 收藏
-
200 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习