Python之路--Python基础10--并发编程

Posted tuyereiot

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python之路--Python基础10--并发编程相关的知识,希望对你有一定的参考价值。

一、multiprocessing模块介绍

  Python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程。

  Python提供了multiprocessing。multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。

 

二、Process类介绍

创建进程的类:

  Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)

强调:

  1. 需要使用关键字的方式来指定参数

  2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号。

参数介绍:

  group参数未使用,值始终为None

  target表示调用对象,即子进程要执行的任务

  args表示调用对象的位置参数元组,args=(1,2,‘egon‘,)

  kwargs表示调用对象的字典,kwargs={‘name‘:‘egon‘,‘age‘:18}

  name为子进程的名称

方法介绍:

  p.start():启动进程,并调用该子进程中的p.run() 。
  p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法。

  p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁。
  p.is_alive():如果p仍然运行,返回True。

  p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程。

属性介绍:

  p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置

  p.name:进程的名称

  p.pid:进程的pid

  p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)

  p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)

 

二、Process类介绍

注意:在windows中Process()必须放到# if __name__ == ‘__main__‘:下,不然会报错。

1、创建并开启子进程的两种方式

#开进程的方法一:
import time
import random
from multiprocessing import Process

def work(name):
    print(%s working %name)
    time.sleep(random.randrange(1,5))
    print(%s work end %name)

p1=Process(target=work,args=(egon,)) #必须加,号
p2=Process(target=work,args=(alex,))

p1.start()
p2.start()

print(主线程)
#开进程的方法二:
import time
import random
from multiprocessing import Process

class Work(Process):
    def __init__(self,name):
        super().__init__()
        self.name=name

    def run(self):
        print(%s working %self.name)
        time.sleep(random.randrange(1,5))
        print(%s work end %self.name)

p1=Work(egon)
p2=Work(alex)

p1.start() #start会自动调用run
p2.start()

print(主线程)

 

进程直接的内存空间是隔离的:

from multiprocessing import Process

def work():
    global n
    n = 0
    print(子进程内: , n)


if __name__ == __main__:
    n = 100
    p = Process(target=work)
    p.start()
    print(主进程内: , n)

# 输出:
# 主进程内:  100
# 子进程内:  0

 

2、Process对象的join方法

from multiprocessing import Process
import time
import random

class Piao(Process):
    def __init__(self,name):
        self.name=name
        super().__init__()
    def run(self):
        print(%s is piaoing %self.name)
        time.sleep(random.randrange(1,3))
        print(%s is piao end %self.name)

p=Piao(egon)
p.start()
p.join(0.0001) #等待p停止,等0.0001秒就不再等了
print(开始)
from multiprocessing import Process
import time
import random

def piao(name):
    print(%s is piaoing %name)
    time.sleep(random.randint(1,3))
    print(%s is piao end %name)

p1=Process(target=piao,args=(egon,))
p2=Process(target=piao,args=(alex,))
p3=Process(target=piao,args=(yuanhao,))
p4=Process(target=piao,args=(wupeiqi,))

p1.start()
p2.start()
p3.start()
p4.start()

#有的同学会有疑问:既然join是等待进程结束,那么我像下面这样写,进程不就又变成串行的了吗?
#当然不是了,必须明确:p.join()是让谁等?
#很明显p.join()是让主线程等待p的结束,卡住的是主线程而绝非进程p,

#详细解析如下:
#进程只要start就会在开始运行了,所以p1-p4.start()时,系统中已经有四个并发的进程了
#而我们p1.join()是在等p1结束,没错p1只要不结束主线程就会一直卡在原地,这也是问题的关键
#join是让主线程等,而p1-p4仍然是并发执行的,p1.join的时候,其余p2,p3,p4仍然在运行,等#p1.join结束,可能p2,p3,p4早已经结束了,这样p2.join,p3.join.p4.join直接通过检测,无需等待
#所以4个join花费的总时间仍然是耗费时间最长的那个进程运行的时间
p1.join()
p2.join()
p3.join()
p4.join()

print(主线程)

#上述启动进程与join进程可以简写为
# p_l=[p1,p2,p3,p4]
# 
# for p in p_l:
#     p.start()
# 
# for p in p_l:
#     p.join()

 

3、Process对象的其他方法或属性

#进程对象的其他方法一:terminate,is_alive
from multiprocessing import Process
import time
import random

class Piao(Process):
    def __init__(self,name):
        self.name=name
        super().__init__()

    def run(self):
        print(%s is piaoing %self.name)
        time.sleep(random.randrange(1,5))
        print(%s is piao end %self.name)


p1=Piao(egon1)
p1.start()

p1.terminate()     #关闭进程,不会立即关闭,所以is_alive立刻查看的结果可能还是存活
print(p1.is_alive())  #结果为True

print(开始)
print(p1.is_alive()) #结果为False
from multiprocessing import Process
import time
import random
class Piao(Process):
    def __init__(self,name):
        # self.name=name
        # super().__init__() #Process的__init__方法会执行self.name=Piao-1,
        #                    #所以加到这里,会覆盖我们的self.name=name

        #为我们开启的进程设置名字的做法
        super().__init__()
        self.name=name  #这两个换下位子就好了

    def run(self):
        print(%s is piaoing %self.name)
        time.sleep(random.randrange(1,3))
        print(%s is piao end %self.name)

p=Piao(egon)
p.start()
print(开始)
print(p.pid) #查看pid

 

主进程创建守护进程

  1:守护进程会在主进程代码执行结束后就终止

  2:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children

from multiprocessing import Process
import time
import random

class Piao(Process):
    def __init__(self,name):
        self.name=name
        super().__init__()
    def run(self):
        print(%s is piaoing %self.name)
        time.sleep(random.randrange(1,3))
        print(%s is piao end %self.name)

p=Piao(egon)
p.daemon=True #一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程代码执行结束,p即终止运行
p.start()
print()

 

三、进程同步

  进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理。

part1:多个进程共享同一打印终端

#并发运行,效率高,但竞争同一打印终端,带来了打印错乱
from multiprocessing import Process
import os,time
def work():
    print(%s is running %os.getpid())
    time.sleep(2)
    print(%s is done %os.getpid())

if __name__ == __main__:
    for i in range(3):
        p=Process(target=work)
        p.start()

 

#由并发变成了串行,牺牲了运行效率,但避免了竞争
from multiprocessing import Process,Lock
import os,time
def work(lock):
    lock.acquire()
    print(%s is running %os.getpid())
    time.sleep(2)
    print(%s is done %os.getpid())
    lock.release()
if __name__ == __main__:
    lock=Lock()
    for i in range(3):
        p=Process(target=work,args=(lock,))
        p.start()

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  上篇博客写的是Socket编程,在socket并发编程里面,我们当每来一个客户端。都会在服务端开启一个进程来处理,但是如果并发来一万个客户端,要开启一万个进程吗,肯定不行,那样我们的机器会带不动的。

解决方法:进程池

 

以上是关于Python之路--Python基础10--并发编程的主要内容,如果未能解决你的问题,请参考以下文章

Python之路--Python基础12--并发编程之协程

Python之路--Python基础

Python之路

零基础Python学习路线,小白的进阶之路!

12python全栈之路-并发编程之多进程

Python开发基础之路