Python|Python3之百万并发实现方法


python由于GIL(全局锁)的存在 , 不能发挥多核的优势 , 在IO密集型的网络编程里 , 异步处理比同步处理能提升成百上千倍的效率 , 弥补了python性能方面的短板 。
python3.4版本引入asyncio到标准库 , python2x没有加这个库 , python3.5又加入了async/await特性 。
同步/异步的概念同步是指完成事务的逻辑 , 先执行第一个事务 , 如果阻塞了 , 会一直等待 , 直到这个事务完成 , 再执行第二个事务 , 顺序执行 。。。
异步是和同步相对的 , 异步是指在处理调用这个事务的之后 , 不会等待这个事务的处理结果 , 直接处理第二个事务去了 , 通过状态、通知、回调来通知调用者处理结果 。
asyncio对比同步代码和异步代码编写方面的差异 , 其次看下两者性能上的差距 , 使用sleep(1)模拟耗时1秒的io操作 。
同步代码
import timedef hello():time.sleep(1)def run():for i in range(5):hello()print(time.time())if __name__ == '__main__':run()# 结果# 间隔约是1s# 1549956123.908849# 1549956124.9128718# 1549956125.9164648# 1549956126.91946# 1549956127.922292异步代码
import asyncioimport time# 定义异步函数async def hello():asyncio.sleep(1)print(time.time())def run():for i in range(5):loop.run_until_complete(hello())loop = asyncio.get_event_loop()if __name__ == '__main__':run()# 结果# 1549956258.2929049# 1549956258.293014# 1549956258.293063# 1549956258.2931032# 1549956258.293142# async def 用来定义异步函数 , 其内部有异步操作 。 每个线程有一个事件循环 , 主线程调用asyncio.get_event_loop()时会创建事件循环 , # 你需要把异步的任务丢给这个循环的run_until_complete()方法 , 事件循环会安排协同程序的执行 。 aiohttp需要并发http请求怎么办呢 , 通常是用requests , 但requests是同步的库 , 如果想异步的话需要引入aiohttp 。 这里引入一个类 , from aiohttp import ClientSession , 首先要建立一个session对象 , 然后用session对象去打开网页 。 session可以进行多项操作 , 比如post, get, put, head等 。
基本用法
async with ClientSession() as session:async with session.get(url='http://www.baidu.com/') as response:首先async def 关键字定义了这是个异步函数 , await 关键字加在需要等待的操作前面 , response.read()等待request响应 , 是个好IO操作 。 然后使用ClientSession类发起http请求 。
多链接异步访问我们需要请求多个URL该怎么办呢 , 同步的做法访问多个URL只需要加个for循环就可以了 。 但异步的实现方式并没那么容易 , 在之前的基础上需要将hello()包装在asyncio的Future对象中 , 然后将Future对象列表作为任务传递给事件循环 。
【Python|Python3之百万并发实现方法】#!/usr/bin/env python# -*- coding: utf-8 -*-import asynciofrom aiohttp import ClientSessiontasks = []async def request_run(i):async with ClientSession() as session:async with session.get(url='http://www.baidu.com/') as response:response = await response.read()# 返回报文print(i)def run():for i in range(5):task = asyncio.ensure_future(request_run(i))tasks.append(task)if __name__ == '__main__':loop = asyncio.get_event_loop()run()loop.run_until_complete(asyncio.wait(tasks))# 输出# 0# 1# 3# 4# 2收集http响应
要把响应一一收集到一个列表中 , 最后保存到本地或者打印出来要怎么实现呢 , 可通过asyncio.gather(*tasks)将响应全部收集起来 , 具体通过下面实例来演示 。


推荐阅读