登录
首页 >  文章 >  python教程

Python爬虫重试技巧:tenacity优雅实现方法

时间:2026-04-20 09:05:03 363浏览 收藏

本文深入剖析了Python爬虫开发中重试机制的设计精髓,指出tenacity作为生产级重试方案的不可替代性——它突破requests.Retry仅限网络层容错的局限,赋予开发者对业务逻辑错误(如token过期、解析失败、空响应)的精准判别与可控重试能力;同时详解了避免双重重试、合理配置日志可观测性、拆分原子操作、适配异步场景及动态刷新认证凭证等实战要点,强调重试的本质不是盲目重发,而是基于清晰失败分类的智能决策,真正帮你在高可用爬虫系统中稳住每一步请求。

Python爬虫如何实现数据抓取任务重试_利用tenacity实现优雅重试

tenacity 是目前 Python 生产环境中最稳妥的重试方案,它比手写 while 循环或 requests 的 retry adapter 更可控、更可观测,也更容易与异步、超时、熔断等机制配合。

为什么不用 requests.adapters.Retry?

requests 内置的 Retry 对象只作用于 HTTP 状态码和连接异常,对业务逻辑错误(如返回 {"code": 401, "msg": "token expired"})、解析失败、数据缺失等完全无感。它也不支持自定义重试条件、无法嵌入日志上下文、难以调试重试路径。

常见误用现象:max_retries=3 设了但实际没重试——因为响应是 200,只是内容为空;或者重试了但每次都在用过期 token,越重试越错。

实操建议:

  • 仅在纯网络层容错(DNS 失败、ConnectionError、5xx)时,才用 requests.adapters.Retry 配合 HTTPAdapter
  • 业务级重试必须上 tenacity,把“是否重试”的判断权交还给你自己
  • 不要把 tenacityRetry 混着用——容易触发双重重试,导致请求量翻倍

@retry 装饰器怎么写才不踩坑?

最简可用写法是 @retry(stop=stop_after_attempt(3)),但线上出问题时你会发现:重试了 3 次,日志里只有一条成功记录,失败过程全黑盒。

实操建议:

  • 必加 before=before_log(logger, logging.DEBUG)after=after_log(logger, logging.DEBUG),否则根本不知道哪次失败、为什么失败
  • 避免直接装饰整个爬虫函数;应拆到最小原子操作,比如单独装饰 fetch_page()parse_json(),便于定位是网络问题还是解析问题
  • 慎用 wait_exponential():默认从 1 秒开始翻倍,3 次重试最长等 4 秒,对高并发采集可能拖慢整体吞吐;建议显式设 multiplier=0.5 或改用 wait_fixed(1)

示例(关键部分):

from tenacity import retry, stop_after_attempt, wait_fixed, before_log, after_log
import logging

logger = logging.getLogger(__name__)

@retry(
    stop=stop_after_attempt(3),
    wait=wait_fixed(1),
    before=before_log(logger, logging.DEBUG),
    after=after_log(logger, logging.DEBUG)
)
def fetch_page(url: str) -> dict:
    resp = requests.get(url, timeout=10)
    resp.raise_for_status()
    return resp.json()

如何让重试感知 token 过期并自动刷新?

这是业务重试最典型的耦合点:重试不是简单地“再发一次”,而是“换凭证再发”。tenacity 本身不处理状态,但提供了 retry_error_callbackretry 的上下文钩子。

实操建议:

  • retry 装饰器外维护一个可变的 auth_token 变量,或封装成类实例属性
  • retry_error_callback 捕获最后一次失败的 RetryError,检查其 .last_attempt.result().last_attempt.exception() 是否含 token 相关提示
  • 更推荐方式:在被装饰函数内部主动 raise 自定义异常(如 TokenExpiredError),然后用 retry_if_exception_type(TokenExpiredError) 触发重试,并在重试前调用 refresh_token()

注意:refresh_token() 本身也得加 @retry,且重试策略要更激进(比如最多 2 次,固定等待 0.3 秒),避免卡死在认证环节。

异步爬虫(aiohttp)能用 tenacity 吗?

能,但必须用 tenacity.AsyncRetrying,且装饰器不能直接套 async def 函数——得手动 await。

常见错误现象:写了 @retry 但协程没 await,结果返回 coroutine object,后续 await 时报 RuntimeWarning: coroutine 'xxx' was never awaited

实操建议:

  • 别用装饰器,改用上下文管理器模式:
from tenacity import AsyncRetrying, stop_after_attempt, wait_fixed

async for attempt in AsyncRetrying(
    stop=stop_after_attempt(3),
    wait=wait_fixed(1)
):
    with attempt:
        async with aiohttp.ClientSession() as session:
            async with session.get(url) as resp:
                return await resp.json()

这种写法明确控制执行流,也方便在每次尝试前后插日志或更新 header。

tenacity 的真正难点不在语法,而在于重试边界的划分——哪些该重试、哪些该报错、哪些该跳过。一个没想清楚的 retry_if_result(lambda x: not x) 可能让空列表永远重试下去。先理清你的失败分类,再配策略,比急着加装饰器重要得多。

以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>