登录
首页 >  文章 >  python教程

Python高并发教程:asyncio协程实战指南

时间:2026-01-23 19:52:03 305浏览 收藏

本篇文章向大家介绍《Python高并发开发教程:asyncio协程实战》,主要包括,具有一定的参考价值,需要的朋友可以参考一下。

asyncio协程基于单线程事件循环实现高并发I/O,不阻塞、开销小、需全异步生态支持;示例用aiohttp并发发3请求;须用Semaphore控并发、try/except和wait_for保健壮;生产推荐FastAPI、asyncpg等异步栈。

Python高并发系统开发教程_asyncio多任务协程实践

理解asyncio协程与传统线程的区别

asyncio不是多线程,也不是多进程,它基于单线程内的事件循环(event loop)调度多个协程(coroutine),通过 await 主动让出控制权,实现高并发I/O密集型任务。关键在于:协程不阻塞、切换开销极小、内存占用低,但要求所有I/O操作必须是异步的(如 aiohttp 替代 requestsaiomysql 替代 pymysql)。

用async/await写第一个并发任务

下面是一个同时发起3个HTTP请求的示例,比串行快3倍左右:

import asyncio
import aiohttp

async def fetch_url(session, url):
    async with session.get(url) as response:
        return await response.text()

async def main():
    async with aiohttp.ClientSession() as session:
        tasks = [
            fetch_url(session, 'https://httpbin.org/delay/1'),
            fetch_url(session, 'https://httpbin.org/delay/1'),
            fetch_url(session, 'https://httpbin.org/delay/1')
        ]
        results = await asyncio.gather(*tasks)
        print(f'共获取 {len(results)} 个响应')

if __name__ == '__main__':
    asyncio.run(main())

控制并发数量避免压垮服务

无节制地创建成百上千个task可能触发连接数超限或对方限流。推荐用 asyncio.Semaphore 限制并发请求数:

  • 初始化一个信号量:sem = asyncio.Semaphore(10),表示最多10个协程同时执行
  • 每个任务前加 async with sem:,自动排队等待空闲名额
  • 适合爬虫、批量调用API、数据库批量写入等场景

处理异常与超时保障系统健壮性

协程中未捕获的异常会静默丢失,需主动处理:

  • 给每个 await 加 try/except,或在 asyncio.gather 中传入 return_exceptions=True
  • 用 asyncio.wait_for(task, timeout=5) 设置单任务超时,防止某个请求卡死拖慢整体
  • 对关键任务可配合 retry 逻辑(如使用 tenacity 库或手写重试循环)

生产环境常用组合建议

实际部署时注意几点:

  • Web框架优先选支持原生async的,如 FastAPI 或 Starlette,避免在 Flask/Django 中强行套 asyncio
  • 数据库驱动必须用异步版(如 asyncpg、aiomysql),否则 await 一个同步调用会阻塞整个事件循环
  • CPU密集型任务不要直接 await,应通过 asyncio.to_thread() 或 ProcessPoolExecutor 拆离到其他线程/进程
  • 日志记录推荐用 structlog + 异步handler,避免 logging.info() 这类同步IO拖慢协程

到这里,我们也就讲完了《Python高并发教程:asyncio协程实战指南》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!

前往漫画官网入口并下载 ➜
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>