Python抓取GBGB赛事结果教程
时间:2025-12-22 14:45:40 288浏览 收藏
从现在开始,努力学习吧!本文《Python+GBGB API抓取指定日期赛事结果教程》主要讲解了等等相关知识点,我会在golang学习网中持续更新相关的系列文章,欢迎大家关注并积极留言建议。下面就先一起来看一下本篇正文内容吧,希望能帮到你!

本教程详细介绍了如何利用Python的`requests`库与GBGB API交互,以自动化方式抓取指定日期范围和特定赛狗赛道的比赛结果。文章涵盖了API参数的理解、日期范围的程序化生成、HTTP请求的发送、JSON数据的解析与筛选,以及最终数据的持久化存储,旨在提供一个结构清晰、可复用的数据抓取解决方案。
自动化抓取GBGB赛狗比赛结果
在进行数据分析或建立预测模型时,从特定网站获取大量结构化数据是一项常见需求。对于GBGB(Great British Greyhound Board)的赛狗比赛结果,手动通过网站界面或逐个URL抓取是极其耗时且效率低下的。本教程将展示如何利用Python及其强大的requests库,结合GBGB提供的API接口,实现对指定日期范围和特定赛道的比赛结果进行高效、自动化的抓取。
理解GBGB API接口
GBGB提供了一个API接口,允许开发者通过HTTP请求获取比赛结果数据。根据提供的信息,核心的API端点是: https://api.gbgb.org.uk/api/results
此端点支持以下关键查询参数:
- page: 页码,用于分页。
- itemsPerPage: 每页显示的条目数。例如,200表示每页获取200条记录。
- date: 指定查询的日期,格式为YYYY-MM-DD。这是实现日期范围抓取的关键。
- race_type: 比赛类型,例如race。
通过组合这些参数,我们可以构建出请求URL,例如: https://api.gbgb.org.uk/api/results?page=1&itemsPerPage=200&date=2023-11-01&race_type=race 这将返回2023年11月1日的所有比赛结果中的前200条记录。
设置开发环境
在开始之前,请确保您的Python环境中安装了requests库。如果尚未安装,可以通过以下命令进行安装:
pip install requests
程序化生成日期范围
为了实现指定日期范围的抓取,我们需要编写代码来迭代生成所需的日期字符串。这通常涉及到一个嵌套循环,外层循环处理月份,内层循环处理该月份中的每一天。
from datetime import datetime, timedelta
import requests
import json
# 定义抓取的起始和结束日期
start_date = datetime(2023, 10, 1) # 例如,从2023年10月1日开始
end_date = datetime(2023, 12, 31) # 到2023年12月31日结束
# 存储所有抓取到的数据
all_results = []
# API基础URL和固定参数
base_url = "https://api.gbgb.org.uk/api/results"
params = {
'page': '1',
'itemsPerPage': '200', # 假设每页最多200条,根据实际情况调整或处理分页
'race_type': 'race'
}
# 循环生成日期
current_date = start_date
while current_date <= end_date:
# 格式化日期为 YYYY-MM-DD
params['date'] = current_date.strftime('%Y-%m-%d')
# 打印当前正在抓取的日期,便于跟踪进度
print(f"正在抓取 {params['date']} 的数据...")
# 移动到下一天
current_date += timedelta(days=1)上述代码片段初始化了起始和结束日期,并使用datetime和timedelta对象来逐天递增,确保每个日期都能被处理。
发送API请求与错误处理
在日期循环内部,我们将使用requests.get()方法向API发送请求,并处理可能出现的各种网络或API错误。
# ... (前面的代码保持不变)
current_date = start_date
while current_date <= end_date:
params['date'] = current_date.strftime('%Y-%m-%d')
print(f"正在抓取 {params['date']} 的数据...")
try:
response = requests.get(base_url, params=params)
response.raise_for_status() # 检查HTTP请求是否成功 (200 OK)
# 将响应内容解析为JSON
page_context_dict = response.json()
# GBGB API的实际数据通常在 'items' 键中
items = page_context_dict.get('items', [])
# 将抓取到的数据添加到总列表中
all_results.extend(items)
except requests.exceptions.HTTPError as errh:
print(f"HTTP错误 (日期: {params['date']}): {errh}")
except requests.exceptions.ConnectionError as errc:
print(f"连接错误 (日期: {params['date']}): {errc}")
except requests.exceptions.Timeout as errt:
print(f"请求超时 (日期: {params['date']}): {errt}")
except requests.exceptions.RequestException as err:
print(f"请求异常 (日期: {params['date']}): {err}")
except json.JSONDecodeError as json_err:
print(f"JSON解析错误 (日期: {params['date']}): {json_err} - 响应内容: {response.text[:200]}") # 打印部分响应内容辅助调试
current_date += timedelta(days=1)
# ... (后续数据处理和保存)response.raise_for_status()是一个非常有用的方法,它会在HTTP请求返回错误状态码(如4xx或5xx)时抛出HTTPError异常,从而方便我们捕获并处理这些问题。
筛选特定赛道数据
API返回的数据可能包含所有赛道的信息。如果我们需要筛选出特定赛道(例如“Swindon”)的比赛结果,可以在获取到每日数据后进行过滤。
# ... (前面的代码保持不变)
desired_track = "Swindon" # 定义您感兴趣的赛道名称
current_date = start_date
while current_date <= end_date:
params['date'] = current_date.strftime('%Y-%m-%d')
print(f"正在抓取 {params['date']} 的数据...")
try:
response = requests.get(base_url, params=params)
response.raise_for_status()
page_context_dict = response.json()
items = page_context_dict.get('items', [])
# 筛选特定赛道的数据
specific_track_items = []
for item in items:
if "trackName" in item and item["trackName"] == desired_track:
specific_track_items.append(item)
all_results.extend(specific_track_items) # 将筛选后的数据添加到总列表
except Exception as e: # 捕获更广泛的异常,或者保持细致的异常捕获
print(f"处理日期 {params['date']} 时发生错误: {e}")
current_date += timedelta(days=1)
# ... (后续数据保存)这里,我们遍历每天获取到的items列表,检查每个item字典中是否存在trackName键,并且其值是否与desired_track匹配。
完整代码示例
将上述所有组件整合,形成一个完整的Python脚本:
from datetime import datetime, timedelta
import requests
import json
def scrape_gbgb_results(start_date_str, end_date_str, desired_track_name, output_filename="gbgb_results.json"):
"""
从GBGB API抓取指定日期范围和特定赛道的比赛结果。
Args:
start_date_str (str): 起始日期,格式 'YYYY-MM-DD'。
end_date_str (str): 结束日期,格式 'YYYY-MM-DD'。
desired_track_name (str): 目标赛道的名称,例如 "Swindon"。
output_filename (str): 结果保存的文件名,默认为 "gbgb_results.json"。
"""
try:
start_date = datetime.strptime(start_date_str, '%Y-%m-%d')
end_date = datetime.strptime(end_date_str, '%Y-%m-%d')
except ValueError:
print("日期格式不正确。请使用 'YYYY-MM-DD' 格式。")
return
all_results = []
base_url = "https://api.gbgb.org.uk/api/results"
params = {
'page': '1',
'itemsPerPage': '200', # 根据API限制和需求调整
'race_type': 'race'
}
current_date = start_date
while current_date <= end_date:
params['date'] = current_date.strftime('%Y-%m-%d')
print(f"正在抓取 {params['date']} 的数据...")
try:
response = requests.get(base_url, params=params, timeout=10) # 设置超时
response.raise_for_status() # 如果状态码不是200,则抛出HTTPError
page_context_dict = response.json()
items = page_context_dict.get('items', [])
specific_track_items = []
for item in items:
if "trackName" in item and item["trackName"] == desired_track_name:
specific_track_items.append(item)
if specific_track_items: # 仅当有筛选结果时才添加
all_results.extend(specific_track_items)
except requests.exceptions.HTTPError as errh:
print(f"HTTP错误 (日期: {params['date']}): {errh}")
except requests.exceptions.ConnectionError as errc:
print(f"连接错误 (日期: {params['date']}): {errc}")
except requests.exceptions.Timeout as errt:
print(f"请求超时 (日期: {params['date']}): {errt}")
except requests.exceptions.RequestException as err:
print(f"请求异常 (日期: {params['date']}): {err}")
except json.JSONDecodeError as json_err:
print(f"JSON解析错误 (日期: {params['date']}): {json_err}. 响应内容开头: {response.text[:200]}")
except Exception as e:
print(f"处理日期 {params['date']} 时发生未知错误: {e}")
current_date += timedelta(days=1)
# 将所有抓取到的数据写入JSON文件
if all_results:
with open(output_filename, 'w', encoding='utf-8') as f:
json.dump(all_results, f, ensure_ascii=False, indent=4)
print(f"数据已成功保存到 {output_filename},共 {len(all_results)} 条记录。")
else:
print(f"在指定日期范围和赛道 '{desired_track_name}' 下未找到任何数据。")
if __name__ == "__main__":
# 示例调用
scrape_gbgb_results(
start_date_str="2023-10-01",
end_date_str="2023-10-31",
desired_track_name="Swindon",
output_filename="swindon_results_october.json"
)
# 您可以根据需要更改日期范围和赛道名称
# scrape_gbgb_results(
# start_date_str="2023-11-01",
# end_date_str="2023-11-15",
# desired_track_name="Hove",
# output_filename="hove_results_early_november.json"
# )注意事项与最佳实践
- API速率限制 (Rate Limiting): 频繁或大量请求可能会触发API的速率限制,导致请求被拒绝。虽然GBGB API文档中未明确提及,但在实际操作中应注意。可以考虑在每次请求之间添加time.sleep()来引入延迟,例如time.sleep(0.5)。
- 分页处理: 当前代码中itemsPerPage设置为200。如果某天的比赛结果超过200条,并且API支持多页,您可能需要在一个日期内部再增加一个循环来处理page参数,直到没有更多数据返回。
- 数据结构变化: API返回的JSON数据结构可能会随时间变化。在编写代码时,应考虑到健壮性,例如使用.get()方法访问字典键,以避免因键不存在而引发错误。
- 错误处理: 完善的错误处理机制对于数据抓取至关重要。上述代码已经包含了对常见requests异常和json解析错误的捕获,这有助于诊断和解决问题。
- 目标赛道名称: desired_track_name必须与API返回数据中的trackName字段完全匹配,包括大小写。
- 文件保存格式: 示例代码将数据保存为JSON格式,这是一种易于机器读取和解析的格式。根据需求,您也可以将其转换为CSV、数据库记录等其他格式。
- 代码可复用性: 将抓取逻辑封装在函数中(如scrape_gbgb_results),可以提高代码的可读性和复用性。
总结
通过本教程,我们学习了如何利用Python的requests库与GBGB API接口进行交互,从而高效地抓取指定日期范围和特定赛道的赛狗比赛结果。这种自动化方法不仅节省了大量手动操作的时间,也为后续的数据分析和应用提供了可靠的数据源。掌握API接口的参数、程序化日期生成以及健壮的错误处理是实现此类数据抓取任务的关键。
到这里,我们也就讲完了《Python抓取GBGB赛事结果教程》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
221 收藏
-
152 收藏
-
226 收藏
-
200 收藏
-
434 收藏
-
125 收藏
-
179 收藏
-
199 收藏
-
199 收藏
-
475 收藏
-
141 收藏
-
486 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习