博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python---协程 学习笔记
阅读量:5032 次
发布时间:2019-06-12

本文共 5345 字,大约阅读时间需要 17 分钟。

协程


协程又称为微线程,协程是一种用户态的轻量级线程

协程拥有自己的寄存器和栈。协程调度切换的时候,将寄存器上下文和栈都保存到其他地方,在切换回来的时候,恢复到先前保存的寄存器上下文和栈,因此:协程能保留上一次调用状态,每次过程重入时,就相当于进入上一次调用的状态。

协程的好处:

1.无需线程上下文切换的开销(还是单线程)

2.无需原子操作(一个线程改一个变量,改一个变量的过程就可以称为原子操作)的锁定和同步的开销

3.方便切换控制流,简化编程模型

4.高并发+高扩展+低成本:一个cpu支持上万的协程都没有问题,适合用于高并发处理

缺点:

1.无法利用多核的资源,协程本身是个单线程,它不能同时将单个cpu的多核用上,协程需要和进程配合才能运用到多cpu上(协程是跑在线程上的)

2.进行阻塞操作时会阻塞掉整个程序:如io

使用yield实现协程的例子:

import timeimport queuedef consumer(name):    print("---->start eating baozi......")    while True:        #yield默认可以返回数据,走到yield整个程序返回,yield被唤醒的时候还可以接收数据        #进入死循环碰到yield暂停,被唤醒的时候才执行print        new_baozi = yield        print("[%s] is eating baozi %s" %(name,new_baozi))        #time.sleep(2)def producer():    #__next__()调用消费者的next,consumer直接调用的话,第一次不会执行,会变成一个生成器    #函数如果里面有yield第一次加括号调用,他是一个生成器,还没有真正执行,__next__()才会执行    r = con.__next__()    r = con2.__next__()    n = 0    while n<5:        n += 1        #send有两个作用:唤醒生成器的同时,传送一个值,传的这个值就是yield接收到的值new_baozi        con.send(n)        con2.send(n)      #time.sleep(1)        print("\033[32;1m[producer]\033[0m is making baozi %s" %n)if __name__ == '__main__':    con = consumer("c1")    con2 = consumer("c2")    p = producer()

 

整个就是通过yield实现的一个简单的协程,在程序运行过程中,直接完成运作,感觉像多并发的效果。

问题:他们好像能够实现多并发的效果,是因为每一个生产者没有任何的sleep,如果在producer中加一个time.sleep(1),那么运行速度就变慢了。

遇到io操作就切换,io操作很耗时,协程之所以能够处理大并发,就是把io操作去除,之后就变成这个程序只有cpu在切换

如何实现程序自动检测io操作完成:

greenlet

from greenlet import greenletdef tesst1():    print(12)    gr2.switch()    print(34)    gr2.switch()def tesst2():    print(56)    gr1.switch()    print(78)gr1 = greenlet(tesst1)#启动一个协程gr2 = greenlet(tesst2)gr1.switch()#手动切换

运行结果:

greenlet现在还是手动切换

gevent

Gevent是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet,它是以c扩展模块形式接入python的轻量级协程。Greenlet全部运行在主程序操作系统进程的内部,但他们被协作式的调度

import geventdef foo():    print("Running in foo")    gevent.sleep(2)    print("Explicit context switch to foo again")def bar():    print("Explicit context to bar")    gevent.sleep(1)    print("Implicit context to switch back to bar")gevent.joinall(    [        gevent.spawn(foo),        gevent.spawn(bar),    ])

运行结果:

运行整个也就运行了2秒,模拟io操作

下面我们做一个简单的小爬虫:

from urllib.request import urlopenimport gevent,timedef f(url):    print("GET: %s "%url)    resp = urlopen(url)    data = resp.read()    print("%d bytes received from %s." %(len(data),url))urls = [    'https://www.python.org/',    'https://www.yahoo.com/',    'https://github.com/']time_start = time.time()for url in urls:    f(url)print("同步cost",time.time()-time_start)async_time_start = time.time()gevent.joinall([    gevent.spawn(f,'https://www.python.org/'),    gevent.spawn(f,'https://www.yahoo.com/'),    gevent.spawn(f,'https://github.com/')])print("异步cost",time.time()-time_start)

 

用了同步和异步两种方式来进行网页的爬取,但是结果却是同步的比异步的用的时间还要短,我们之前用了gevent.sleep(1)来模拟io操作,顺便就完成了执行任务。原因是:gevent调用urllib默认是堵塞的,gevent检测不到urllib的io操作,所以不会进行切换,所以还是串行运行。

那怎么才能够让gevent知道urllib是io操作呢,要用到一个模块monkey

from urllib.request import urlopenimport gevent,timefrom gevent import monkeymonkey.patch_all()#把当前程序的所有io操作单独的坐上标记def f(url):    print("GET: %s "%url)    resp = urlopen(url)    data = resp.read()    print("%d bytes received from %s." %(len(data),url))urls = [    'https://www.python.org/',    'https://www.yahoo.com/',    'https://github.com/']time_start = time.time()for url in urls:    f(url)print("同步cost",time.time()-time_start)async_time_start = time.time()gevent.joinall([    gevent.spawn(f,'https://www.python.org/'),    gevent.spawn(f,'https://www.yahoo.com/'),    gevent.spawn(f,'https://github.com/')])print("异步cost",time.time()-async_time_start)

这样就异步爬取的速度瞬间快了很多

下面我们在利用gevent写一个socket服务器端和客户端:

服务器端:

1 import sys,socket,time,gevent 2  3 from gevent import socket,monkey 4 monkey.patch_all() 5  6 def server(port): 7     s = socket.socket() 8     s.bind(('0.0.0.0',port)) 9     s.listen(500)10     while True:11         cli,addr = s.accept()12         gevent.spawn(handle_request,cli)13 def handle_request(conn):14     try:15         while True:16             data = conn.recv(1024)17             print("recv:",data)18             conn.send(data)19             if not data:20                 conn.shutdown(socket.SHUT_WR)21     except Exception as e:22         print(e)23     finally:24         conn.close()25 26 if __name__ == '__main__':27     server(8001)

 

和socketserver差不多,处理数据都是在handle_request函数中,然后在server中建立一个gevent

客户端:

1 import socket 2 HOST = 'localhost' 3 PORT = 8001 4 s = socket.socket(socket.AF_INET,socket.SOCK_STREAM) 5 s.connect((HOST,PORT)) 6 while True: 7     msg = bytes(input(">>>:"),encoding="utf-8") 8     s.sendall(msg) 9     data = s.recv(1024)10     #repr格式化输出11     print("Recv:",repr(data))12 s.close()

 

运行结果:

由上面几个运行结果可以知道:我们已经实行了并发运行,不需要使用什么多线程。我们用协程,遇到io就阻塞

 

我们现在实现了切换,但是我们是什么时候切换回来呢,我们怎么知道什么时候这个函数的东西执行完,切换到原函数呢

事件驱动与异步IO

通常,我们写服务器处理模型的程序时,有一下几个模型:

1.每收到一个请求,创建一个新的进程,来处理改请求:如socketserver

2.每收到一个请求,创建一个新的线程,来处理该请求:如socketserver

3.每收到一个请求,放入一个事件列表,让主进程通过非阻塞I/O方式来处理请求,即事件驱动的模式,该模式是大多数网络服务器采用的方式

在ui编程中,我们常常要对鼠标点击进行相应的反应,我们怎么获得鼠标点击呢?

目前大部分的UI编程都是事件驱动模型,如很多的ui平台都会提供onclick()事件,这个事件就代表了鼠标按下的事件。事件驱动模型大体思路:

1.有一个事件队列

2.鼠标按下时,往这个队列中增加一个点击事件

3.有个循环,不断的从队列中取出事件,根据不同的事件,调用不同 的函数,如:onclick(),onkeydown()等

4.事件(消息)一般都各自保存各自的处理函数指针,这样,每个消息都有独立的处理函数

那我们在回到上面的问题,io什么时候切换回来。我们可以注册一个回调函数,回调函数就是当你的程序一遇到io操作,就切换,然后等着io操作结束又切换回来。io操作是操作系统完成的。就是通过这个事件驱动。

 

 

写的不是太好,希望大家多多包涵QAQ

 

转载于:https://www.cnblogs.com/charles8866/p/8445991.html

你可能感兴趣的文章
开户vim编程之--cscope支持
查看>>
python数据类型图解
查看>>
C#微信登录-手机网站APP应用
查看>>
HTML5实践 -- iPhone Safari Viewport Scaling Bug
查看>>
一位数据挖掘成功人士 给 数据挖掘在读研究生 的建议
查看>>
Python3.6.0安装
查看>>
hdu1049
查看>>
H5项目常见问题及注意事项
查看>>
索尼(SONY) SVE1512S7C 把WIN8降成WIN7图文教程
查看>>
时间模块 && time datetime
查看>>
jquery自动生成二维码
查看>>
spring回滚数据
查看>>
新浪分享API应用的开发
查看>>
美国专利
查看>>
【JavaScript】Write和Writeln的区别
查看>>
百度编辑器图片在线流量返回url改动
查看>>
我对你的期望有点过了
查看>>
微信小程序wx:key以及wx:key=" *this"详解:
查看>>
下拉框比较符
查看>>
2.2.5 因子的使用
查看>>