登录
首页 >  文章 >  python教程

BeautifulSoup提取XML属性值教程

时间:2025-10-12 14:45:33 290浏览 收藏

一分耕耘,一分收获!既然打开了这篇文章《Python BeautifulSoup提取XML属性值教程》,就坚持看下去吧!文中内容包含等等知识点...希望你能在阅读本文后,能真真实实学到知识或者帮你解决心中的疑惑,也欢迎大佬或者新人朋友们多留言评论,多给建议!谢谢!

Python中使用BeautifulSoup提取XML标签属性值教程

本教程详细介绍了如何使用Python的BeautifulSoup库从XML文档中高效提取特定标签的属性值。我们将涵盖从获取XML数据到利用CSS选择器定位元素并提取home id和away id等关键信息,并提供完整的代码示例和注意事项,帮助您轻松处理XML数据解析任务。

1. 引言:XML数据与Python解析

XML(Extensible Markup Language)作为一种常用的数据交换格式,广泛应用于各种系统之间。在Python中处理XML数据是常见的任务,尤其当我们需要从复杂的XML结构中提取特定信息时。本教程将重点介绍如何利用强大的BeautifulSoup库来解析XML文档,并以一个实际案例——从体育赛事日程XML中提取主客队ID——来演示其用法。

BeautifulSoup最初是为HTML解析而设计的,但它也能很好地处理XML文档,尤其是在处理结构相对扁平或需要类似CSS选择器进行元素定位的场景下。对于更复杂的XML操作,例如XPath查询或严格的Schema验证,xml.etree.ElementTree或lxml可能是更专业的选择,但BeautifulSoup的简洁性使其成为快速提取数据的优秀工具。

2. 获取XML数据

在进行解析之前,我们首先需要获取XML数据。数据来源可以是本地文件,也可以是远程API接口。

2.1 从API获取数据

许多服务会通过API提供XML格式的数据。以下是一个使用Python标准库http.client从URL获取XML数据的示例:

import http.client
from datetime import datetime

def fetch_xml_from_api(api_key: str) -> str:
    """
    从Sportradar NHL API获取每日赛程XML数据。
    """
    today = datetime.now().strftime("%Y/%m/%d")
    host = "api.sportradar.us"
    path = f"/nhl/trial/v7/en/games/{today}/schedule.xml?api_key={api_key}"

    try:
        conn = http.client.HTTPSConnection(host)
        conn.request("GET", path)
        res = conn.getresponse()
        data = res.read()
        conn.close()
        return data.decode("utf-8")
    except Exception as e:
        print(f"获取API数据时发生错误: {e}")
        return ""

# 替换为您的实际API密钥
# api_key = "YOUR_API_KEY"
# xml_data_string = fetch_xml_from_api(api_key)
# if xml_data_string:
#     print("成功获取XML数据。")
# else:
#     print("未能获取XML数据。")

2.2 从本地文件读取数据

如果XML数据已经保存到本地文件,可以直接读取:

def read_xml_from_file(filepath: str) -> str:
    """
    从本地文件读取XML数据。
    """
    try:
        with open(filepath, 'r', encoding='utf-8') as f:
            return f.read()
    except FileNotFoundError:
        print(f"文件未找到: {filepath}")
        return ""
    except Exception as e:
        print(f"读取文件时发生错误: {e}")
        return ""

# xml_data_string = read_xml_from_file('pengins_daily_schedule.xml')
# if xml_data_string:
#     print("成功从文件读取XML数据。")
# else:
#     print("未能从文件读取XML数据。")

为了本教程的自包含性,我们将使用一个预定义的XML字符串作为示例数据。

3. 使用BeautifulSoup解析XML

一旦我们有了XML数据(无论是字符串形式还是文件内容),就可以使用BeautifulSoup进行解析。

3.1 初始化BeautifulSoup解析器

首先,导入BeautifulSoup并用XML数据和指定的xml解析器初始化它:

from bs4 import BeautifulSoup

# 示例XML数据
xml_text = """\
<?xml version="1.0" encoding="UTF-8"?>
<league xmlns="http://feed.elasticstats.com/schema/hockey/schedule-v6.0.xsd" id="fd560107-a85b-4388-ab0d-655ad022aff7" name="NHL" alias="NHL">
  <daily-schedule date="2023-12-11">
    <games>
      <game id="23fa5cd7-d680-4dcd-83b5-cf010257ef1f" status="scheduled" coverage="full" scheduled="2023-12-12T00:00:00Z" sr_id="sr:match:41971769" reference="20428" home_team="4416d559-0f24-11e2-8525-18a905767e44" away_team="44153da1-0f24-11e2-8525-18a905767e44">
        <venue id="bd7b42fa-19bb-4b91-8615-214ccc3ff987" name="KeyBank Center" capacity="19070" address="1 Seymour H Knox III Plaza" city="Buffalo" state="NY" zip="14203" country="USA" time_zone="US/Eastern" sr_id="sr:venue:5950"/>
        <home id="4416d559-0f24-11e2-8525-18a905767e44" name="Buffalo Sabres" alias="BUF" sr_id="sr:team:3678" reference="7">
        </home>
        <away id="44153da1-0f24-11e2-8525-18a905767e44" name="Arizona Coyotes" alias="ARI" sr_id="sr:team:3698" reference="53">
        </away>
        <broadcasts>
          <broadcast network="MSG-B" type="TV" channel="635-1"/>
          <broadcast network="SCRIPPS" type="TV" locale="Away"/>
          <broadcast network="ESPN+" type="Internet" locale="National"/>
        </broadcasts>
      </game>
      <game id="7026bc87-b286-40ac-92af-1ce88b17dec2" status="scheduled" coverage="full" scheduled="2023-12-12T00:00:00Z" sr_id="sr:match:41971771" reference="20429" home_team="441766b9-0f24-11e2-8525-18a905767e44" away_team="441730a9-0f24-11e2-8525-18a905767e44">
        <venue id="e256f8f5-5469-43b0-a95e-8d3adb3cb7ee" name="UBS Arena" capacity="17113" address="2150 Hempstead Turnpike" city="Belmont Park" state="NY" zip="11003" country="USA" time_zone="US/Eastern" sr_id="sr:venue:59880"/>
        <home id="441766b9-0f24-11e2-8525-18a905767e44" name="New York Islanders" alias="NYI" sr_id="sr:team:3703" reference="2">
        </home>
        <away id="441730a9-0f24-11e2-8525-18a905767e44" name="Toronto Maple Leafs" alias="TOR" sr_id="sr:team:3693" reference="10">
        </away>
        <broadcasts>
          <broadcast network="MSGSN" type="TV" channel="635"/>
          <broadcast network="ESPN+" type="Internet" locale="National"/>
        </broadcasts>
      </game>
      <game id="47979944-74f1-43af-bebd-e82fab1432ee" status="scheduled" coverage="full" scheduled="2023-12-12T01:00:00Z" sr_id="sr:match:41971773" reference="20430" home_team="44157522-0f24-11e2-8525-18a905767e44" away_team="44169bb9-0f24-11e2-8525-18a905767e44">
        <venue id="adbd1acb-a053-4944-ba15-383eda91c12e" name="American Airlines Center" capacity="18532" address="2500 Victory Avenue" city="Dallas" state="TX" zip="75219" country="USA" time_zone="US/Central" sr_id="sr:venue:5988"/>
        <home id="44157522-0f24-11e2-8525-18a905767e44" name="Dallas Stars" alias="DAL" sr_id="sr:team:3684" reference="25">
        </home>
        <away id="44169bb9-0f24-11e2-8525-18a905767e44" name="Detroit Red Wings" alias="DET" sr_id="sr:team:3685" reference="17">
        </away>
        <broadcasts>
          <broadcast network="BSDET" type="TV" channel="663"/>
          <broadcast network="BSSWX" type="TV" locale="Away"/>
          <broadcast network="ESPN+" type="Internet" locale="National"/>
        </broadcasts>
      </game>
      <game id="5e2b7cee-05da-429f-92cc-06678c4257bf" status="scheduled" coverage="full" scheduled="2023-12-12T02:30:00Z" sr_id="sr:match:41971775" reference="20431" home_team="4415ce44-0f24-11e2-8525-18a905767e44" away_team="44159241-0f24-11e2-8525-18a905767e44">
        <venue id="a75eea49-c384-4edb-99f1-d5252773ec83" name="Ball Arena" capacity="18007" address="1000 Chopper Circle" city="Denver" state="CO" zip="80204" country="USA" time_zone="US/Mountain" sr_id="sr:venue:5976"/>
        <home id="4415ce44-0f24-11e2-8525-18a905767e44" name="Colorado Avalanche" alias="COL" sr_id="sr:team:3682" reference="21">
        </home>
        <away id="44159241-0f24-11e2-8525-18a905767e44" name="Calgary Flames" alias="CGY" sr_id="sr:team:3679" reference="20">
        </away>
        <broadcasts>
          <broadcast network="ALT" type="TV" channel="681"/>
          <broadcast network="ESPN+" type="Internet" locale="National"/>
        </broadcasts>
      </game>
    </games>
  </daily-schedule>
</league>"""

soup = BeautifulSoup(xml_text, "xml")

注意: 这里的"xml"参数告诉BeautifulSoup使用Python内置的XML解析器。如果处理的是HTML文档,则应使用"html.parser"。

3.2 定位元素并提取属性

我们的目标是获取每个标签下的标签的id属性。BeautifulSoup提供了多种查找元素的方法,其中select()方法允许我们使用CSS选择器语法,这对于熟悉Web开发的开发者来说非常直观。

  1. 查找所有标签: 我们可以使用soup.select("game")来获取所有标签的列表。
  2. 在每个标签内查找标签: 对于每个找到的标签,我们可以进一步使用.home和.away属性来直接访问其子标签。
  3. 提取id属性: 访问标签的属性,就像访问字典键一样,例如game.home["id"]。
home_away_ids = []
for game in soup.select("game"):
    # 直接访问子标签
    home_tag = game.home
    away_tag = game.away

    # 提取id属性
    if home_tag and "id" in home_tag.attrs:
        home_id = home_tag["id"]
    else:
        home_id = "N/A" # 或者其他错误处理

    if away_tag and "id" in away_tag.attrs:
        away_id = away_tag["id"]
    else:
        away_id = "N/A" # 或者其他错误处理

    home_away_ids.append({"home_id": home_id, "away_id": away_id})
    print(f"主队ID: {home_id}, 客队ID: {away_id}")

print("\n所有提取到的ID:")
for item in home_away_ids:
    print(item)

输出示例:

主队ID: 4416d559-0f24-11e2-8525-18a905767e44, 客队ID: 44153da1-0f24-11e2-8525-18a905767e44
主队ID: 441766b9-0f24-11e2-8525-18a905767e44, 客队ID: 441730a9-0f24-11e2-8525-18a905767e44
主队ID: 44157522-0f24-11e2-8525-18a905767e44, 客队ID: 44169bb9-0f24-11e2-8525-18a905767e44
主队ID: 4415ce44-0f24-11e2-8525-18a905767e44, 客队ID: 44159241-0f24-11e2-8525-18a905767e44

所有提取到的ID:
{'home_id': '4416d559-0f24-11e2-8525-18a905767e44', 'away_id': '44153da1-0f24-11e2-8525-18a905767e44'}
{'home_id': '441766b9-0f24-11e2-8525-18a905767e44', 'away_id': '441730a9-0f24-11e2-8525-18a905767e44'}
{'home_id': '44157522-0f24-11e2-8525-18a905767e44', 'away_id': '44169bb9-0f24-11e2-8525-18a905767e44'}
{'home_id': '4415ce44-0f24-11e2-8525-18a905767e44', 'away_id': '44159241-0f24-11e2-8525-18a905767e44'}

4. 完整示例代码

下面是将获取数据和解析数据整合在一起的完整代码示例。您可以根据需要选择从API获取或从文件读取XML。

import http.client
from datetime import datetime
from bs4 import BeautifulSoup

# --- 辅助函数:获取XML数据 ---
def fetch_xml_from_api(api_key: str) -> str:
    """从Sportradar NHL API获取每日赛程XML数据。"""
    today = datetime.now().strftime("%Y/%m/%d")
    host = "api.sportradar.us"
    path = f"/nhl/trial/v7/en/games/{today}/schedule.xml?api_key={api_key}"

    try:
        conn = http.client.HTTPSConnection(host)
        conn.request("GET", path)
        res = conn.getresponse()
        data = res.read()
        conn.close()
        print(f"成功从API获取XML数据,状态码: {res.status}")
        return data.decode("utf-8")
    except Exception as e:
        print(f"获取API数据时发生错误: {e}")
        return ""

def read_xml_from_file(filepath: str) -> str:
    """从本地文件读取XML数据。"""
    try:
        with open(filepath, 'r', encoding='utf-8') as f:
            print(f"成功从文件 '{filepath}' 读取XML数据。")
            return f.read()
    except FileNotFoundError:
        print(f"错误: 文件未找到: {filepath}")
        return ""
    except Exception as e:
        print(f"读取文件时发生错误: {e}")
        return ""

# --- 主程序逻辑 ---
if __name__ == "__main__":
    # 选项1: 从API获取数据 (需要有效的API密钥)
    # api_key = "tx3ccn5bhk7nb5acb4cwd8np" # 替换为您的实际API密钥
    # xml_source_data = fetch_xml_from_api(api_key)

    # 选项2: 使用示例XML字符串 (用于演示,无需API密钥或文件)
    xml_source_data = """\
<?xml version="1.0" encoding="UTF-8"?>
<league xmlns="http://feed.elasticstats.com/schema/hockey/schedule-v6.0.xsd" id="fd560107-a85b-4388-ab0d-655ad022aff7" name="NHL" alias="NHL">
  <daily-schedule date="2023-12-11">
    <games>
      <game id="23fa5cd7-d680-4

好了,本文到此结束,带大家了解了《BeautifulSoup提取XML属性值教程》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多文章知识!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>