标签,并且其文本内容是其最稳定的标识之一。我们可以使用 XPath 结合文本内容来定位这些选项,这对于动态生成的元素尤其有效,因为它们的 ID 或类名可能不稳定。
# 假设下拉菜单已经展开
try:
# 等待包含文本“100”的选项可见并可点击
# 这里我们查找 class 为 'item' 且文本内容包含 '100' 的 div 元素
option_100 = WebDriverWait(driver, 10).until(
EC.element_to_be_clickable((By.XPATH, "//div[@class='item' and contains(text(), '100')]"))
)
option_100.click()
print("成功选择 '100' 选项。")
except Exception as e:
print(f"选择 '100' 选项时发生错误: {e}")
finally:
# 完成操作后关闭浏览器
driver.quit()完整示例代码:
将上述两个步骤整合,形成一个完整的操作流程:
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
import time # 导入 time 模块用于演示等待
# 初始化 WebDriver
driver = webdriver.Chrome()
driver.get("https://www.gurufocus.com/stocks")
try:
# 1. 定位并点击下拉菜单触发器
dropdown_trigger = WebDriverWait(driver, 10).until(
EC.element_to_be_clickable((By.CLASS_NAME, "aio-tabs-button"))
)
dropdown_trigger.click()
print("成功点击下拉菜单触发器。")
# 2. 选择下拉菜单中的特定选项 (例如 '100')
# 等待下拉选项列表出现,并选择包含文本 '100' 的选项
option_100 = WebDriverWait(driver, 10).until(
EC.element_to_be_clickable((By.XPATH, "//div[@class='item' and contains(text(), '100')]"))
)
option_100.click()
print("成功选择 '100' 选项。")
# 验证操作是否成功(可选):例如,等待页面内容更新或截图
time.sleep(3) # 简单等待页面加载
except Exception as e:
print(f"操作过程中发生错误: {e}")
finally:
# 关闭浏览器
driver.quit()优化与替代方案
尽管 Selenium 提供了强大的浏览器自动化能力,但在某些场景下,它可能不是最优解。
1. 提升 Selenium 脚本的健壮性
- 更精确的定位策略: 尽量避免使用绝对 XPath。当元素没有唯一的 ID 或 NAME 时,可以尝试使用 CSS 选择器或相对 XPath,结合元素的属性(如 class、data-* 属性)和文本内容进行定位。
- 条件等待: 始终使用 WebDriverWait 和 expected_conditions 来等待元素出现、可见或可点击,而不是使用硬编码的 time.sleep()。
- 异常处理: 使用 try-except 块来捕获 NoSuchElementException 或其他 Selenium 异常,以便在元素未找到时能优雅地处理。
2. 考虑使用 Web API 进行数据抓取
对于主要目的是抓取网页数据而不是模拟用户交互的场景,直接调用网站的后端 API 通常是更高效、更稳定、更轻量级的解决方案。
- 优点:
- 速度快: 无需加载和渲染整个网页,直接获取数据。
- 稳定性高: 不受前端界面变化的影响。
- 资源消耗低: 不需要启动浏览器实例。
- 实现方式:
- 使用浏览器开发者工具(Network 标签页)监控页面加载时发出的 XHR/Fetch 请求。
- 分析请求的 URL、请求方法(GET/POST)、请求头和请求体。
- 使用 Python 的 requests 库模拟这些请求来获取数据。
例如,如果您发现选择“100”选项后,页面会向某个 API 发送请求并返回数据,那么直接模拟这个 API 请求会比 Selenium 自动化浏览器更优。
import requests
import json
# 示例:假设发现页面通过以下API获取数据
# 这是一个虚构的URL和参数,您需要根据实际情况进行分析
api_url = "https://www.gurufocus.com/api/stocks/data"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/106.0.0.0 Safari/537.36",
"Accept": "application/json",
# 其他可能需要的请求头,如 Authorization, Referer 等
}
params = {
"page_size": 100, # 对应选择“100”的逻辑
"page": 1,
# 其他筛选条件
}
try:
response = requests.get(api_url, headers=headers, params=params)
response.raise_for_status() # 检查HTTP请求是否成功
data = response.json()
print("通过 API 成功获取数据:")
# print(json.dumps(data, indent=2)) # 打印格式化的JSON数据
# 在这里处理获取到的数据
print(f"获取到 {len(data.get('stocks', []))} 条股票数据。")
except requests.exceptions.RequestException as e:
print(f"API 请求失败: {e}")
except json.JSONDecodeError:
print("API 返回的不是有效的 JSON 格式。")
总结
在 Python Selenium 中操作网页下拉菜单,核心在于准确地定位触发器和选项,并利用显式等待机制应对动态加载。通过 By.CLASS_NAME 定位触发器,结合 By.XPATH 和 contains(text(), '...') 定位选项是一种可靠的方法。然而,在数据抓取场景下,如果网站提供 API 接口,直接使用 requests 库进行 API 调用通常是更推荐的方案,因为它能提供更高的效率和稳定性。选择哪种方法取决于您的具体需求:需要模拟完整用户行为(如表单提交、交互式测试)时使用 Selenium,而仅需获取数据时则优先考虑 API。
今天带大家了解了的相关知识,希望对你有所帮助;关于文章的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~