精华内容
下载资源
问答
  • python多进程和多线程
    2021-03-03 15:21:30

    Python多进程适用的场景:计算密集型(CPU密集型)任务

    Python多线程适用的场景:IO密集型任务

    计算密集型任务一般指需要做大量的逻辑运算,比如上亿次的加减乘除,使用多核CPU可以并发提高计算性能。

    IO密集型任务一般指输入输出型,比如文件的读取,或者网络的请求,这类场景一般会遇到IO阻塞,使用多核CPU来执行并不会有太高的性能提升。

    下面使用一台64核的虚拟机来执行任务,通过示例代码来区别它们,

    示例1:执行计算密集型任务,进行1亿次运算

    使用多进程

    from multiprocessing import Process
    import os, time
    
    
    # 计算密集型任务
    def work():
        res = 0
        for i in range(100 * 100 * 100 * 100):  # 亿次运算
            res *= i
    
    
    if __name__ == "__main__":
        l = []
        print("本机为", os.cpu_count(), "核 CPU")  # 本机为64核
        start = time.time()
        for i in range(4):
            p = Process(target=work)  # 多进程
            l.append(p)
            p.start()
        for p in l:
            p.join()
        stop = time.time()
        print("计算密集型任务,多进程耗时 %s" % (stop - start))
    

    使用多线程

    from threading import Thread
    import os, time
    
    
    # 计算密集型任务
    def work():
        res = 0
        for i in range(100 * 100 * 100 * 100):  # 亿次运算
            res *= i
    
    
    if __name__ == "__main__":
        l = []
        print("本机为", os.cpu_count(), "核 CPU")  # 本机为64核
        start = time.time()
        for i in range(4):
            p = Thread(target=work)  # 多线程
            l.append(p)
            p.start()
        for p in l:
            p.join()
        stop = time.time()
        print("计算密集型任务,多线程耗时 %s" % (stop - start))
    

    两段代码输出:

    本机为 64 核 CPU
    计算密集型任务,多进程耗时 6.864224672317505
    
    本机为 64 核 CPU
    计算密集型任务,多线程耗时 37.91042113304138

    说明:上述代码中,分别使用4个多进程和4个多线程去执行亿次运算,多进程耗时6.86s,多线程耗时37.91s,可见在计算密集型任务场景,使用多进程能大大提高效率。

    另外,当分别使用8个多进程和8个多线程去执行亿次运算时,耗时差距更大,输出如下:

    本机为 64 核 CPU
    计算密集型任务,多进程耗时 6.811635971069336
    
    本机为 64 核 CPU
    计算密集型任务,多线程耗时 113.53767895698547

    可见在64核的cpu机器下,同时使用8个多进程和4个多进程效率几乎一样。而使用多线程则就效率较慢。要最高效地利用CPU,计算密集型任务同时进行的数量应当等于CPU的核心数

    示例2:400次,阻塞两秒,读取文件

    使用多进程(4核cpu)

    from multiprocessing import Process
    import os, time
    
    
    # I/0密集型任务
    def work():
        time.sleep(5)  # 阻塞两秒
    
    
    if __name__ == "__main__":
        l = []
        print("本机为", os.cpu_count(), "核 CPU")
        start = time.time()
        for i in range(1000):
            p = Process(target=work)  # 多进程
            l.append(p)
            p.start()
        for p in l:
            p.join()
        stop = time.time()
        print("I/0密集型任务,多进程耗时 %s" % (stop - start))
    

    使用多线程(4核cpu)

    from threading import Thread
    import os, time
    
    
    # I/0密集型任务
    def work():
        time.sleep(5)  # 阻塞两秒
    
    
    if __name__ == "__main__":
        l = []
        print("本机为", os.cpu_count(), "核 CPU")
        start = time.time()
    
        for i in range(1000):
            p = Thread(target=work)  # 多线程
            l.append(p)
            p.start()
        for p in l:
            p.join()
        stop = time.time()
        print("I/0密集型任务,多线程耗时 %s" % (stop - start))
    

    输出:

    本机为 64 核 CPU
    I/0密集型任务,多进程耗时 12.28218412399292
    
    
    本机为 64 核 CPU
    I/0密集型任务,多线程耗时 5.399136066436768
    

    说明:python的多线程有于GIL锁的存在,无论是多少核的cpu机器,也只能使用单核,从输出结果来看,对于IO密集型任务使用多线程比较占优。

    FAQ:执行多进程的io密集型任务时,报了一个错:

    OSError: [Errno 24] Too many open files

    原因:linux系统限制

    ulimit -n
    #  输出 1024

    解决:(临时提高系统限制,重启后失效)

    ulimit -n 10240

     

    更多相关内容
  • 下面小编就为大家带来一篇python多进程和多线程究竟谁更快(详解)。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
  • 一、Python多进程多线程 关于python多进程多线程的相关基础知识,在我之前的博客有写过,并且就关于python多线程的GIL锁问题,也在我的一篇博客中有相关的解释。 为什么python多线程在面对IO密集型任务的时候会产生...
  • 本文通过一些具体的例子简单介绍一下python多线程和多进程,后续会写一些进程通信和线程通信的一些文章。 python中提供两个标准库thread和threading用于对线程的支持,python3中已放弃对前者的支持,后者是一种更...
  • python多进程和多线程谁更快

    千次阅读 2019-06-16 11:34:39
    Python IO密集型任务、计算密集型任务,以及多线程多进程 - tsw123 - 博客园 https://www.cnblogs.com/tsw123/p/9504460.html Python IO密集型任务、计算密集型任务,以及多线程多进程选择 对于IO密集型...

     

    Python IO密集型任务、计算密集型任务,以及多线程、多进程 - tsw123 - 博客园
    https://www.cnblogs.com/tsw123/p/9504460.html

     

     

    Python IO密集型任务、计算密集型任务,以及多线程、多进程选择

    对于IO密集型任务:

    • 单进程单线程直接执行用时:10.0333秒
    • 多线程执行用时:4.0156秒
    • 多进程执行用时:5.0182秒

    说明多线程适合IO密集型任务。

     

    对于计算密集型任务

    • 单进程单线程直接执行用时:10.0273秒
    • 多线程执行用时:13.247秒
    • 多进程执行用时:6.8377秒

    说明多进程适合计算密集型任务。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    21

    22

    23

    24

    25

    26

    27

    28

    29

    30

    31

    32

    33

    34

    35

    36

    37

    38

    39

    40

    41

    42

    43

    44

    45

    46

    47

    48

    49

    50

    51

    52

    53

    54

    55

    56

    57

    58

    59

    60

    61

    62

    63

    64

    65

    66

    67

    68

    69

    70

    71

    72

    73

    74

    75

    76

    77

    78

    79

    80

    81

    82

    83

    84

    85

    86

    87

    88

    89

    90

    91

    92

    93

    94

    95

    96

    97

    98

    99

    100

    101

    102

    103

    104

    105

    106

    #coding=utf-8

    import sys

    import multiprocessing

    import time

    import threading

     

     

    # 定义全局变量Queue

    g_queue = multiprocessing.Queue()

     

    def init_queue():

        print("init g_queue start")

        while not g_queue.empty():

            g_queue.get()

        for _index in range(10):

            g_queue.put(_index)

        print("init g_queue end")

        return

     

    # 定义一个IO密集型任务:利用time.sleep()

    def task_io(task_id):

        print("IOTask[%s] start" % task_id)

        while not g_queue.empty():

            time.sleep(1)

            try:

                data = g_queue.get(block=True, timeout=1)

                print("IOTask[%s] get data: %s" % (task_id, data))

            except Exception as excep:

                print("IOTask[%s] error: %s" % (task_id, str(excep)))

        print("IOTask[%s] end" % task_id)

        return

     

    g_search_list = list(range(10000))

    # 定义一个计算密集型任务:利用一些复杂加减乘除、列表查找等

    def task_cpu(task_id):

        print("CPUTask[%s] start" % task_id)

        while not g_queue.empty():

            count = 0

            for in range(10000):

                count += pow(3*23*2if in g_search_list else 0

            try:

                data = g_queue.get(block=True, timeout=1)

                print("CPUTask[%s] get data: %s" % (task_id, data))

            except Exception as excep:

                print("CPUTask[%s] error: %s" % (task_id, str(excep)))

        print("CPUTask[%s] end" % task_id)

        return task_id

     

    if __name__ == '__main__':

        print("cpu count:", multiprocessing.cpu_count(), "\n")

     

        print(u"========== 直接执行IO密集型任务 ==========")

        init_queue()

        time_0 = time.time()

        task_io(0)

        print(u"结束:", time.time() - time_0, "\n")

     

        print("========== 多线程执行IO密集型任务 ==========")

        init_queue()

        time_0 = time.time()

        thread_list = [threading.Thread(target=task_io, args=(i,)) for in range(10)]

        for in thread_list:

            t.start()

        for in thread_list:

            if t.is_alive():

                t.join()

        print("结束:", time.time() - time_0, "\n")

     

        print("========== 多进程执行IO密集型任务 ==========")

        init_queue()

        time_0 = time.time()

        process_list = [multiprocessing.Process(target=task_io, args=(i,)) for in range(multiprocessing.cpu_count())]

        for in process_list:

            p.start()

        for in process_list:

            if p.is_alive():

                p.join()

        print("结束:", time.time() - time_0, "\n")

     

        print("========== 直接执行CPU密集型任务 ==========")

        init_queue()

        time_0 = time.time()

        task_cpu(0)

        print("结束:", time.time() - time_0, "\n")

     

        print("========== 多线程执行CPU密集型任务 ==========")

        init_queue()

        time_0 = time.time()

        thread_list = [threading.Thread(target=task_cpu, args=(i,)) for in range(10)]

        for in thread_list:

            t.start()

        for in thread_list:

            if t.is_alive():

                t.join()

        print("结束:", time.time() - time_0, "\n")

     

        print("========== 多进程执行cpu密集型任务 ==========")

        init_queue()

        time_0 = time.time()

        process_list = [multiprocessing.Process(target=task_cpu, args=(i,)) for in range(multiprocessing.cpu_count())]

        for in process_list:

            p.start()

        for in process_list:

            if p.is_alive():

                p.join()

        print("结束:", time.time() - time_0, "\n")

    参考:https://zhuanlan.zhihu.com/p/24283040

     

     

     

    =========================================================

    =========================================================

    =========================================================

     

     

     

     

    Python多线程和多进程谁更快? - 张玉宝 - 博客园
    https://www.cnblogs.com/zhangyubao/p/7003535.html

     

    python多进程和多线程谁更快

    • python3.6
    • threading和multiprocessing
    • 四核+三星250G-850-SSD

    自从用多进程和多线程进行编程,一致没搞懂到底谁更快。网上很多都说python多进程更快,因为GIL(全局解释器锁)。但是我在写代码的时候,测试时间却是多线程更快,所以这到底是怎么回事?最近再做分词工作,原来的代码速度太慢,想提速,所以来探求一下有效方法(文末有代码和效果图)

    这里先来一张程序的结果图,说明线程和进程谁更快


    一些定义

    并行是指两个或者多个事件在同一时刻发生。并发是指两个或多个事件在同一时间间隔内发生

    线程是操作系统能够进行运算调度的最小单位。它被包含在进程之中,是进程中的实际运作单位。一个程序的执行实例就是一个进程。


    实现过程

    而python里面的多线程显然得拿到GIL,执行code,最后释放GIL。所以由于GIL,多线程的时候拿不到,实际上,它是并发实现,即多个事件,在同一时间间隔内发生。

    但进程有独立GIL,所以可以并行实现。因此,针对多核CPU,理论上采用多进程更能有效利用资源。


    现实问题

    在网上的教程里面,经常能见到python多线程的身影。比如网络爬虫的教程、端口扫描的教程。

    这里拿端口扫描来说,大家可以用多进程实现下面的脚本,会发现python多进程更快。那么不就是和我们分析相悖了吗?

    import sys,threading
    from socket import *
    
    host = "127.0.0.1" if len(sys.argv)==1 else sys.argv[1]
    portList = [i for i in range(1,1000)]
    scanList = []
    lock = threading.Lock()
    print('Please waiting... From ',host)
    
    
    def scanPort(port):
        try:
            tcp = socket(AF_INET,SOCK_STREAM)
            tcp.connect((host,port))
        except:
            pass
        else:
            if lock.acquire():
                print('[+]port',port,'open')
                lock.release()
        finally:
            tcp.close()
    
    for p in portList:
        t = threading.Thread(target=scanPort,args=(p,))
        scanList.append(t)
    for i in range(len(portList)):
        scanList[i].start()
    for i in range(len(portList)):
        scanList[i].join()

    谁更快

    因为python锁的问题,线程进行锁竞争、切换线程,会消耗资源。所以,大胆猜测一下:

    在CPU密集型任务下,多进程更快,或者说效果更好;而IO密集型,多线程能有效提高效率。


    大家看一下下面的代码:

    import time
    import threading
    import multiprocessing
    
    max_process = 4
    max_thread = max_process
    
    def fun(n,n2):
        #cpu密集型
        for  i in range(0,n):
            for j in range(0,(int)(n*n*n*n2)):
                t = i*j
    
    def thread_main(n2):
        thread_list = []
        for i in range(0,max_thread):
            t = threading.Thread(target=fun,args=(50,n2))
            thread_list.append(t)
    
        start = time.time()
        print(' [+] much thread start')
        for i in thread_list:
            i.start()
        for i in thread_list:
            i.join()
        print(' [-] much thread use ',time.time()-start,'s')
    
    def process_main(n2):
        p = multiprocessing.Pool(max_process)
        for i in range(0,max_process):
            p.apply_async(func = fun,args=(50,n2))
        start = time.time()
        print(' [+] much process start')
        p.close()#关闭进程池
        p.join()#等待所有子进程完毕
        print(' [-] much process use ',time.time()-start,'s')
    
    if __name__=='__main__':
        print("[++]When n=50,n2=0.1:")
        thread_main(0.1)
        process_main(0.1)
        print("[++]When n=50,n2=1:")
        thread_main(1)
        process_main(1)
        print("[++]When n=50,n2=10:")
        thread_main(10)
        process_main(10)


    结果如下:

    可以看出来,当对cpu使用率越来越高的时候(代码循环越多的时候),差距越来越大。验证我们猜想(在CPU密集型任务下,多进程更快,或者说效果更好;而IO密集型,多线程能有效提高效率。)


    CPU和IO密集型

    1. CPU密集型代码(各种循环处理、计数等等)
    2. IO密集型代码(文件处理、网络爬虫等)

    判断方法:

    1. 直接看CPU占用率, 硬盘IO读写速度
    2. 计算较多->CPU;时间等待较多(如网络爬虫)->IO
    3. 请自行百度

    参考

    为什么在Python里推荐使用多进程而不是多线程?
    如何判断进程是IO密集还是CPU密集
    搞定python多线程和多进程

     

     

    展开全文
  • 如何简单区分Python多进程多线程

    千次阅读 2022-03-20 18:07:34
    之前在做项目时遇到并发的问题,就想到了Python多线程多进程,由于Arcpy的特殊性,好多rest框架不合适,有同学如果用到arcpy,同时用到python rest框架,还是不要用flask,前辈踩过的坑哈哈。扯远了,下面就说说...

    前言

    之前在做项目时遇到并发的问题,就想到了Python多线程与多进程,由于Arcpy的特殊性,好多rest框架不合适,有同学如果用到arcpy,同时用到python rest框架,还是不要用flask,前辈踩过的坑哈哈。扯远了,下面就说说多线程与多进程的区别。

    区别

    上面这张片子进行了一个简单概念性的描述,但是最让人眨眼的是右边的图哈哈,这是我当时为了描述的客观可懂专门找的图。

    多进程就相当于大伙干活,然后一起吃饭,各自吃各自的餐,最后把活干完,菜香只能自己体会,各自沉浸在各自的快乐中,吃饱喝足,说不上饭有剩的。

    多线程相当于大伙给老板打工,完了一起聚餐,一个小锅,大伙一起抢着吃,锅大了都吃的好,但是锅小了都吃不饱,你抢我的我抢你,他一筷子下去手太大你还要等着。

    示例代码

    多线程

    from multiprocessing.dummy import Pool as ThreadPool
    import multiprocessing, time
    
    
    def mainfunc(num):
        starttime = time.time()
        s = 1
        for i in range(1, num):
            s *= i
    
        endtime = time.time()
        return "耗时:{0}".format(endtime-starttime)
    
    
    if __name__ == '__main__':
        pool = ThreadPool(multiprocessing.cpu_count())
        listdata = [200000, 200000, 200000, 200000, 200000, 200000, 200000, 200000]
        result = pool.map(mainfunc, listdata)
        pool.close()
        pool.join()
        print(result)

    多进程

    import multiprocessing, time
    
    
    def mainfunc(num):
        starttime = time.time()
        s = 1
        for i in range(1, num):
            s *= i
    
        endtime = time.time()
        return "耗时:{0}".format(endtime-starttime)
    
    
    if __name__ == '__main__':
        pool = multiprocessing.Pool(multiprocessing.cpu_count())
        listdata = [200000, 200000, 200000, 200000, 200000, 200000, 200000, 200000]
        result = pool.map(mainfunc, listdata)
        pool.close()
        pool.join()
        print(result)

    阻塞与非阻塞(异步)

    上面贴了详细的代码,而对于multiprocessing库来说,Pool类有下面几种方法,也就是阻塞和非阻塞。

    1. map&map_async

    map是阻塞的,它会阻塞进程直至结果返回,相反map_async则是异步的每个进程都是单独的,不会相互影响。

    2. apply&apply_async

    和map一样,apply是阻塞的,但是两个函数对应的参数是不一样的,详细可以去接口看看。

    运行结果

    1. 多进程

    ['耗时:16.133437156677246', '耗时:16.113436937332153', '耗时:16.093438148498535', '耗时:16.0244357585907', '耗时:16.160436868667603', '耗时:16.20243549346924', '耗时:16.192437171936035', '耗时:15.965435981750488']

     2. 多线程

    ['耗时:75.55738019943237', '耗时:80.21012735366821', '耗时:78.34934687614441', '耗时:69.6355893611908', '耗时:65.87498378753662', '耗时:74.0091381072998', '耗时:78.06873106956482', '耗时:79.26412773132324']

     可以看到多进程运行时会启动多个python,前面我的设置是根据本机的cpu数量去设置的。而多线程只有一个python进程,对比最后的耗时,显然多进程会快好多,进程直接不相互抢占资源,而多线程就不一样的,相互直接因为资源会大打出手。

    到此结束,有不当的还希望大家批评指正!

    源码仓库:Python代码集: python代码仓库

    展开全文
  • Python 界有条不成文的准则: 计算密集型任务适合多进程,IO 密集型任务适合多线程。本篇来作个比较。 通常来说多线程相对于多进程有优势,因为创建一个进程开销比较大,然而因为在 python 中有 GIL 这把大锁的存在...
  • Python多进程和多线程(跑满CPU)

    万次阅读 多人点赞 2019-05-07 15:06:16
    Python多进程和多线程(跑满CPU) 概念 任务可以理解为进程(process),如打开一个word就是启动一个word进程。在一个word进程之中不只是进行打字输入,还需要拼写检查、打印等子任务,我们可以把进程中的这些子...

    参考资料:

    https://www.liaoxuefeng.com/wiki/1016959663602400/1017627212385376

    Python多进程和多线程(跑满CPU

    • 概念

    任务可以理解为进程(process),如打开一个word就是启动一个word进程。在一个word进程之中不只是进行打字输入,还需要拼写检查、打印等子任务,我们可以把进程中的这些子任务称为线程(thread)。

    由于每个进程至少要干一件事,那么一个进程至少有一个线程,有时候有的复杂进程有多个线程,在进程中的多个线程是可以同时执行的。多线程的执行方式和多进程是一样的,也是由操作系统在多个线程之间快速切换,让每个线程都短暂地交替运行,看起来就像同时执行一样。当然,真正地同时执行多线程需要多核CPU才可能实现。

     

    总结一下就是,多任务的实现有3种方式:

    • 多进程模式;

    启动多个进程,每个进程虽然只有一个线程,但多个进程可以一块执行多个任务。

    • 多线程模式

    启动一个进程,在一个进程内启动多个线程,这样,多个线程也可以一块执行多个任务。

    • 多进程+多线程模式。

     

    启动多个进程,每个进程再启动多个线程,这样同时执行的任务就更多了,当然这种模型更复杂,实际很少采用。同时执行多个任务通常各个任务之间并不是没有关联的,而是需要相互通信和协调,有时,任务1必须暂停等待任务2完成后才能继续执行,有时,任务3和任务4又不能同时执行,所以,多进程和多线程的程序的复杂度要远远高于我们前面写的单进程单线程的程序。

     

    • 多进程

    要让Python程序实现多进程(multiprocessing),我们先了解操作系统的相关知识。Unix/Linux操作系统提供了一个fork()系统调用,它非常特殊。普通的函数调用,调用一次,返回一次,但是fork()调用一次,返回两次,因为操作系统自动把当前进程(称为父进程)复制了一份(称为子进程),然后,分别在父进程和子进程内返回。

    子进程永远返回0,而父进程返回子进程的ID。这样做的理由是,一个父进程可以fork出很多子进程,所以,父进程要记下每个子进程的ID,而子进程只需要调用getppid()就可以拿到父进程的ID。由于Python是跨平台的,自然也应该提供一个跨平台的多进程支持。multiprocessing模块就是跨平台版本的多进程模块。

    multiprocessing模块提供了一个Process类来代表一个进程对象。

    创建子进程时,只需要传入一个执行函数和函数的参数,创建一个Process实例,用start()方法启动,这样创建进程比fork()还要简单。join()方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步。

             multiprocessing模块提供了一个Pool进程池的方式批量创建子进程。

     

    from multiprocessing import Pool
    
    import os, time
    
    
    def long_time_task(name):
    
        print('Run task %s (%s)...' % (name, os.getpid()))
    
        start = time.time()
    
        time.sleep(1)
    
        end = time.time()
    
        print('Task %s runs %0.2f seconds.' % (name, (end - start)))
    
    if __name__=='__main__':
    
        print('Parent process %s.' % os.getpid())
    
        p = Pool(5)
    
        for i in range(10):
    
            p.apply_async(long_time_task, args=(i,))
    
        print('Waiting for all subprocesses done...')
    
        p.close()
    
        p.join()
    
        print('All subprocesses done.')

    执行结果:

    Parent process 13780.
    
    Waiting for all subprocesses done...
    
    Run task 0 (9208)...
    
    Run task 1 (5052)...
    
    Run task 2 (15320)...
    
    Run task 3 (13604)...
    
    Run task 4 (1408)...
    
    Task 0 runs 1.00 seconds.
    
    Run task 5 (9208)...
    
    Task 1 runs 1.00 seconds.
    
    Run task 6 (5052)...
    
    Task 2 runs 1.00 seconds.
    
    Run task 7 (15320)...
    
    Task 3 runs 1.00 seconds.
    
    Run task 8 (13604)...
    
    Task 4 runs 1.00 seconds.
    
    Run task 9 (1408)...
    
    Task 5 runs 1.00 seconds.
    
    Task 6 runs 1.00 seconds.
    
    Task 7 runs 1.00 seconds.
    
    Task 8 runs 1.00 seconds.
    
    Task 9 runs 1.00 seconds.
    
    All subprocesses done.

    使用Pool对象,Pool中的参数表示调用多少个并行进程进行程序运行,pool的默认容量为CPU的计算核的数量,我们可以这样理解pool池:

    直观上的理解为指定了可以容纳最多多少个进程进行并行运算。而p.apply_async()函数给进程池添加进程任务如上图的Process1, Process2 … ,它的参数包括待运行程序和程序的传入参数。对Pool对象调用join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close(),调用close()之后就不能继续添加新的Process了。

    请注意输出的结果,process 01234是立刻执行的,而process  5要等待前面某个process完成后才执行,这是因为Pool的大小为5,在电脑上默认为CPU的核数。因此,最多同时执行5个进程。这是Pool有意设计的限制,并不是操作系统的限制。如果改成:

    p = Pool(10)就可以同时跑10个进程。

     

    • 子进程

    很多时候,子进程并不是自身,而是一个外部进程。我们创建了子进程后,还需要控制子进程的输入和输出。Subprocess模块可以让我们非常方便地启动一个子进程,然后控制其输入和输出。如果子进程还需要输入,则可以通过communicate()方法输入:

     

    • 进程间的通信

    Process之间肯定是需要通信的,操作系统提供了很多机制来实现进程间的通信。Pythonmultiprocessing模块包装了底层的机制,提供了QueuePipes等多种方式来交换数据。

    我们以Queue为例,在父进程中创建两个子进程,一个往Queue里写数据,一个从Queue里读数据:

    from multiprocessing import Process, Queue
    
    import os, time, random
    
    
    # 写数据进程执行的代码:
    
    def write(q):
    
        print('Process to write: %s' % os.getpid())
    
        for value in ['A', 'B', 'C']:
    
            print('Put %s to queue...' % value)
    
            q.put(value)
    
            time.sleep(random.random())
    
    
    # 读数据进程执行的代码:
    
    def read(q):
    
        print('Process to read: %s' % os.getpid())
    
        while True:
    
            value = q.get(True)
    
            print('Get %s from queue.' % value)
    
    
    if __name__=='__main__':
    
        # 父进程创建Queue,并传给各个子进程:
    
        q = Queue()
    
        pw = Process(target=write, args=(q,))
    
        pr = Process(target=read, args=(q,))
    
        # 启动子进程pw,写入:
    
        pw.start()
    
        # 启动子进程pr,读取:
    
        pr.start()
    
        # 等待pw结束:
    
        pw.join()
    
        # pr进程里是死循环,无法等待其结束,只能强行终止:
    
        pr.terminate()

     

    运行结果:

    Process to write: 15728
    
    Put A to queue...
    
    Process to read: 15748
    
    Get A from queue.
    
    Put B to queue...
    
    Get B from queue.
    
    Put C to queue...
    
    Get C from queue.

    Pipes如何使用?

     

    • 多线程

    多任务可以由多进程完成,也可以由一个进程内的多线程完成。一个进程至少有一个线程,由于线程是操作系统直接支持的执行单元,因此,高级语言通常都内置多线程的支持,Python也不例外,并且,Python的线程是真正的Posix Thread,而不是模拟出来的线程。Python的标准库提供了两个模块:_threadthreading_thread是低级模块,threading是高级模块,对_thread进行了封装。绝大多数情况下,我们只需要使用threading这个高级模块。启动一个线程就是把一个函数传入并创建Thread实例,然后调用start()开始执行:

    import time, threading
    
    
    # 新线程执行的代码:
    
    def loop():
    
        print('thread %s is running...' % threading.current_thread().name)
    
        n = 0
    
        while n < 5:
    
            n = n + 1
    
            print('thread %s >>> %s' % (threading.current_thread().name, n))
    
            time.sleep(1)
    
        print('thread %s ended.' % threading.current_thread().name)
    
    
    print('thread %s is running...' % threading.current_thread().name)
    
    t = threading.Thread(target=loop, name='LoopThread')
    
    t.start()
    
    t.join()
    
    print('thread %s ended.' % threading.current_thread().name)

    执行结果:

    thread MainThread is running...
    
    thread LoopThread is running...
    
    thread LoopThread >>> 1
    
    thread LoopThread >>> 2
    
    thread LoopThread >>> 3
    
    thread LoopThread >>> 4
    
    thread LoopThread >>> 5
    
    thread LoopThread ended.
    
    thread MainThread ended.

    由于任何进程默认就会启动一个线程,我们把该线程称为主线程,主线程又可以启动新的线程,Python的threading模块有个current_thread()函数,它永远返回当前线程的实例。主线程实例的名字叫MainThread,子线程的名字在创建时指定,我们用LoopThread命名子线程。名字仅仅在打印时用来显示,完全没有其他意义,如果不起名字Python就自动给线程命名为Thread-1Thread-2……。在上述程序中我们的主线程是整个程序,子线程执行loop()函数,输出的LoopThread是子线程的名字,输出的1,2,3,… 不是线程的数量。

    Lock:

    多线程和多进程最大的不同在于,多进程中,同一个变量,各自有一份拷贝存在于每个进程中,互不影响,而多线程中,所有变量都由所有线程共享,所以,任何一个变量都可以被任何一个线程修改,因此,线程之间共享数据最大的危险在于多个线程同时改一个变量,把内容给改乱了。(对于变量:进程à复制;线程à共享)

    对于多线程将程序变量改乱了的例子:

    import time, threading
    
    
    # 假定这是你的银行存款:
    
    balance = 0
    
    
    def change_it(n):
    
        # 先存后取,结果应该为0:
    
        global balance
    
        balance = balance + n
    
        balance = balance - n
    
    
    def run_thread(n):
    
        for i in range(100000):
    
            change_it(n)
    
    
    t1 = threading.Thread(target=run_thread, args=(5,))
    
    t2 = threading.Thread(target=run_thread, args=(8,))
    
    t1.start()
    
    t2.start()
    
    t1.join()
    
    t2.join()
    
    print(balance)

    我们定义了一个共享变量balance,初始值为0,并且启动两个线程,先存后取,理论上结果应该为0,但是,由于线程的调度是由操作系统决定的,当t1、t2交替执行时,只要循环次数足够多,balance的结果就不一定是0了。原因是因为高级语言的一条语句在CPU执行时是若干条语句,即使一个简单的计算:

    Balance = Balance + n

    都需要分两步计算:

    1. 计算临时变量temp = Balance + n
    2. 将临时变量temp赋值给Balance

    当两个线程正常顺序工作时,并不会造成冲突,但是,如果两个线程中的CPU执行语句不是按照线程顺序执行时有可能会造成冲突:

    初始值 balance = 0

    t1: x1 = balance + 5  # x1 = 0 + 5 = 5

    t2: x2 = balance + 8  # x2 = 0 + 8 = 8

    t2: balance = x2      # balance = 8

    t1: balance = x1      # balance = 5

    t1: x1 = balance - 5  # x1 = 5 - 5 = 0

    t1: balance = x1      # balance = 0

    t2: x2 = balance - 8  # x2 = 0 - 8 = -8

    t2: balance = x2   # balance = -8

    结果 balance = -8

    究其原因,是因为修改balance需要多条语句,而执行这几条语句时,线程可能中断,从而导致多个线程把同一个对象的内容改乱了。

     

    两个线程同时一存一取,就可能导致余额不对,你肯定不希望你的银行存款莫名其妙地变成了负数,所以,我们必须确保一个线程在修改balance的时候,别的线程一定不能改。

    如果我们要确保balance计算正确,就要给change_it()上一把锁,当某个线程开始执行change_it()时,我们说,该线程因为获得了锁,因此其他线程不能同时执行change_it(),只能等待,直到锁被释放后,获得该锁以后才能改。由于锁只有一个,无论多少线程,同一时刻最多只有一个线程持有该锁,所以,不会造成修改的冲突。创建一个锁就是通过threading.Lock()来实现:

    balance = 0
    
    lock = threading.Lock()
    
    
    def run_thread(n):
    
        for i in range(100000):
    
            # 先要获取锁:
    
            lock.acquire()
    
            try:
    
                # 放心地改吧:
    
                change_it(n)
    
            finally:
    
                # 改完了一定要释放锁:
    
                lock.release()

    当多个线程同时执行lock.acquire()时,只有一个线程能成功地获取锁,然后继续执行代码,其他线程就继续等待直到获得锁为止。

    获得锁的线程用完后一定要释放锁,否则那些苦苦等待锁的线程将永远等待下去,成为死线程。所以我们用try...finally来确保锁一定会被释放。

    锁的好处就是确保了某段关键代码只能由一个线程从头到尾完整地执行,坏处当然也很多,首先是阻止了多线程并发执行,包含锁的某段代码实际上只能以单线程模式执行,效率就大大地下降了。其次,由于可以存在多个锁,不同的线程持有不同的锁,并试图获取对方持有的锁时,可能会造成死锁,导致多个线程全部挂起,既不能执行,也无法结束,只能靠操作系统强制终止。

     

    • 多核CPU

    如果你不幸拥有一个多核CPU,你肯定在想,多核应该可以同时执行多个线程。如果写一个死循环的话,会出现什么情况呢?打开Mac OS X的Activity Monitor,或者Windows的Task Manager,都可以监控某个进程的CPU使用率。我们可以监控到一个死循环线程会100%占用一个CPU。如果有两个死循环线程,在多核CPU中,可以监控到会占用200%的CPU,也就是占用两个CPU核心。要想把N核CPU的核心全部跑满,就必须启动N个死循环线程。试试用Python写个死循环:

    import threading, multiprocessing
    
    
    def loop():
    
        x = 0
    
        while True:
    
            x = x ^ 1
    
    
    for i in range(multiprocessing.cpu_count()):
    
        t = threading.Thread(target=loop)
    
    t.start()

     

    程序:

    进程:

    资源监视器:

     

    启动与CPU核心数量相同的N个线程,在4核CPU上可以监控到CPU占用率仅有102%,也就是仅使用了一核。但是用C、C++或Java来改写相同的死循环,直接可以把全部核心跑满,4核就跑到400%,8核就跑到800%,为什么Python不行呢?因为Python的线程虽然是真正的线程,但解释器执行代码时,有一个GIL锁:Global Interpreter Lock,任何Python线程执行前,必须先获得GIL锁,然后,每执行100条字节码,解释器就自动释放GIL锁,让别的线程有机会执行。这个GIL全局锁实际上把所有线程的执行代码都给上了锁,所以,多线程在Python中只能交替执行,即使100个线程跑在100核CPU上,也只能用到1个核。GIL是Python解释器设计的历史遗留问题,通常我们用的解释器是官方实现的CPython,要真正利用多核,除非重写一个不带GIL的解释器。所以,在Python中,可以使用多线程,但不要指望能有效利用多核。如果一定要通过多线程利用多核,那只能通过C扩展来实现,不过这样就失去了Python简单易用的特点。不过,也不用过于担心,Python虽然不能利用多线程实现多核任务,但可以通过多进程实现多核任务。多个Python进程有各自独立的GIL锁,互不影响。

     

    • 进程VS.线程

    我们介绍了多进程和多线程,这是实现多任务最常用的两种方式。现在,我们来讨论一下这两种方式的优缺点。

    首先,要实现多任务,通常我们会设计Master-Worker模式,Master负责分配任务,Worker负责执行任务,因此,多任务环境下,通常是一个Master,多个Worker。

    如果用多进程实现Master-Worker,主进程就是Master,其他进程就是Worker。

    如果用多线程实现Master-Worker,主线程就是Master,其他线程就是Worker。

    多进程模式最大的优点就是稳定性高,因为一个子进程崩溃了,不会影响主进程和其他子进程。(当然主进程挂了所有进程就全挂了,但是Master进程只负责分配任务,挂掉的概率低)著名的Apache最早就是采用多进程模式。

    多进程模式的缺点是创建进程的代价大,在Unix/Linux系统下,用fork调用还行,在Windows下创建进程开销巨大。另外,操作系统能同时运行的进程数也是有限的,在内存和CPU的限制下,如果有几千个进程同时运行,操作系统连调度都会成问题。

    多线程模式通常比多进程快一点,但是也快不到哪去,而且,多线程模式致命的缺点就是任何一个线程挂掉都可能直接造成整个进程崩溃,因为所有线程共享进程的内存。在Windows上,如果一个线程执行的代码出了问题,你经常可以看到这样的提示:“该程序执行了非法操作,即将关闭”,其实往往是某个线程出了问题,但是操作系统会强制结束整个进程。

    在Windows下,多线程的效率比多进程要高,所以微软的IIS服务器默认采用多线程模式。由于多线程存在稳定性的问题,IIS的稳定性就不如Apache。为了缓解这个问题,IIS和Apache现在又有多进程+多线程的混合模式,真是把问题越搞越复杂。

    线程切换:

    无论是多进程还是多线程,只要数量一多,效率肯定上不去,为什么呢?我们打个比方,假设你不幸正在准备中考,每天晚上需要做语文、数学、英语、物理、化学这5科的作业,每项作业耗时1小时。

    如果你先花1小时做语文作业,做完了,再花1小时做数学作业,这样,依次全部做完,一共花5小时,这种方式称为单任务模型,或者批处理任务模型。

    假设你打算切换到多任务模型,可以先做1分钟语文,再切换到数学作业,做1分钟,再切换到英语,以此类推,只要切换速度足够快,这种方式就和单核CPU执行多任务是一样的了,以幼儿园小朋友的眼光来看,你就正在同时写5科作业。

    但是,切换作业是有代价的,比如从语文切到数学,要先收拾桌子上的语文书本、钢笔(这叫保存现场),然后,打开数学课本、找出圆规直尺(这叫准备新环境),才能开始做数学作业。操作系统在切换进程或者线程时也是一样的,它需要先保存当前执行的现场环境(CPU寄存器状态、内存页等),然后,把新任务的执行环境准备好(恢复上次的寄存器状态,切换内存页等),才能开始执行。这个切换过程虽然很快,但是也需要耗费时间。如果有几千个任务同时进行,操作系统可能就主要忙着切换任务,根本没有多少时间去执行任务了,这种情况最常见的就是硬盘狂响,点窗口无反应,系统处于假死状态。

    所以,多任务一旦多到一个限度,就会消耗掉系统所有的资源,结果效率急剧下降,所有任务都做不好。

     

    计算密集型 vs. IO密集型:

    是否采用多任务的第二个考虑是任务的类型。我们可以把任务分为计算密集型IO密集型

    计算密集型任务的特点是要进行大量的计算,消耗CPU资源,比如计算圆周率、对视频进行高清解码等等,全靠CPU的运算能力。这种计算密集型任务虽然也可以用多任务完成,但是任务越多,花在任务切换的时间就越多,CPU执行任务的效率就越低,所以,要最高效地利用CPU,计算密集型任务同时进行的数量应当等于CPU的核心数。

    计算密集型任务由于主要消耗CPU资源,因此,代码运行效率至关重要。Python这样的脚本语言运行效率很低,完全不适合计算密集型任务。对于计算密集型任务,最好用C语言编写。

    第二种任务的类型是IO密集型,涉及到网络、磁盘IO的任务都是IO密集型任务,这类任务的特点是CPU消耗很少,任务的大部分时间都在等待IO操作完成(因为IO的速度远远低于CPU和内存的速度)。对于IO密集型任务,任务越多,CPU效率越高,但也有一个限度。常见的大部分任务都是IO密集型任务,比如Web应用。

    IO密集型任务执行期间,99%的时间都花在IO上,花在CPU上的时间很少,因此,用运行速度极快的C语言替换用Python这样运行速度极低的脚本语言,完全无法提升运行效率。对于IO密集型任务,最合适的语言就是开发效率最高(代码量最少)的语言,脚本语言是首选,C语言最差。

    异步IO

    考虑到CPU和IO之间巨大的速度差异,一个任务在执行的过程中大部分时间都在等待IO操作,单进程单线程模型会导致别的任务无法并行执行,因此,我们才需要多进程模型或者多线程模型来支持多任务并发执行。

    现代操作系统对IO操作已经做了巨大的改进,最大的特点就是支持异步IO。如果充分利用操作系统提供的异步IO支持,就可以用单进程单线程模型来执行多任务,这种全新的模型称为事件驱动模型,Nginx就是支持异步IO的Web服务器,它在单核CPU上采用单进程模型就可以高效地支持多任务。在多核CPU上,可以运行多个进程(数量与CPU核心数相同),充分利用多核CPU。由于系统总的进程数量十分有限,因此操作系统调度非常高效。用异步IO编程模型来实现多任务是一个主要的趋势。

    对应到Python语言,单线程的异步编程模型称为协程,有了协程的支持,就可以基于事件驱动编写高效的多任务程序。

    • 小结

    多线程编程,模型复杂,容易发生冲突,必须用锁加以隔离,同时,又要小心死锁的发生。Python解释器由于设计时有GIL全局锁,导致了多线程无法利用多核。多线程的并发在Python中就是一个美丽的梦。

    • 分布式进程

    ThreadProcess中,应当优选Process,因为Process更稳定,而且,Process可以分布到多台机器上,而Thread最多只能分布到同一台机器的多个CPU上。

    Python的multiprocessing模块不但支持多进程,其中managers子模块还支持把多进程分布到多台机器上。一个服务进程可以作为调度者,将任务分布到其他多个进程中,依靠网络通信。由于managers模块封装很好,不必了解网络通信的细节,就可以很容易地编写分布式多进程程序。

    举个例子:如果我们已经有一个通过Queue通信的多进程程序在同一台机器上运行,现在,由于处理任务的进程任务繁重,希望把发送任务的进程和处理任务的进程分布到两台机器上。怎么用分布式进程实现?

    原有的Queue可以继续使用,但是,通过managers模块把Queue通过网络暴露出去,就可以让其他机器的进程访问Queue了。

    我们先看服务进程,服务进程负责启动Queue,把Queue注册到网络上,然后往Queue里面写入任务:

    # task_master.py
    
    
    import random, time, queue
    
    from multiprocessing.managers import BaseManager
    
    
    # 发送任务的队列:
    
    task_queue = queue.Queue()
    
    # 接收结果的队列:
    
    result_queue = queue.Queue()
    
    # 从BaseManager继承的QueueManager:
    
    class QueueManager(BaseManager):
    
        pass
    
    # 把两个Queue都注册到网络上, callable参数关联了Queue对象:
    
    QueueManager.register('get_task_queue', callable=lambda: task_queue)
    
    QueueManager.register('get_result_queue', callable=lambda: result_queue)
    
    # 绑定端口5000, 设置验证码'abc':
    
    manager = QueueManager(address=('', 5000), authkey=b'abc')
    
    # 启动Queue:
    
    manager.start()
    
    # 获得通过网络访问的Queue对象:
    
    task = manager.get_task_queue()
    
    result = manager.get_result_queue()
    
    # 放几个任务进去:
    
    for i in range(10):
    
        n = random.randint(0, 10000)
    
        print('Put task %d...' % n)
    
        task.put(n)
    
    # 从result队列读取结果:
    
    print('Try get results...')
    
    for i in range(10):
    
        r = result.get(timeout=10)
    
        print('Result: %s' % r)
    
    # 关闭:
    
    manager.shutdown()
    
    print('master exit.')
    
    

    请注意,当我们在一台机器上写多进程程序时,创建的Queue可以直接拿来用,但是,在分布式多进程环境下,添加任务到Queue不可以直接对原始的task_queue进行操作,那样就绕过了QueueManager的封装,必须通过manager.get_task_queue()获得的Queue接口添加。然后,在另一台机器上启动任务进程(本机上启动也可以):

    # task_worker.py
    
    import time, sys, queue
    
    from multiprocessing.managers import BaseManager
    
    # 创建类似的QueueManager:
    
    class QueueManager(BaseManager):
    
        pass
    
    # 由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字:
    
    QueueManager.register('get_task_queue')
    
    QueueManager.register('get_result_queue')
    
    # 连接到服务器,也就是运行task_master.py的机器:
    
    server_addr = '127.0.0.1'
    
    print('Connect to server %s...' % server_addr)
    
    # 端口和验证码注意保持与task_master.py设置的完全一致:
    
    m = QueueManager(address=(server_addr, 5000), authkey=b'abc')
    
    # 从网络连接:
    
    m.connect()
    
    # 获取Queue的对象:
    
    task = m.get_task_queue()
    
    result = m.get_result_queue()
    
    # 从task队列取任务,并把结果写入result队列:
    
    for i in range(10):
    
        try:
    
            n = task.get(timeout=1)
    
            print('run task %d * %d...' % (n, n))
    
            r = '%d * %d = %d' % (n, n, n*n)
    
            time.sleep(1)
    
            result.put(r)
    
        except Queue.Empty:
    
            print('task queue is empty.')
    
    # 处理结束:
    
    print('worker exit.')

    任务进程要通过网络连接到服务进程,所以要指定服务进程的IP。

    现在,可以试试分布式进程的工作效果了。先启动task_master.py服务进程:

    $ python3 task_master.py

    Put task 3411...

    Put task 1605...

    Put task 1398...

    Put task 4729...

    Put task 5300...

    Put task 7471...

    Put task 68...

    Put task 4219...

    Put task 339...

    Put task 7866...

    Try get results...

    task_master.py进程发送完任务后,开始等待result队列的结果。现在启动task_worker.py进程:

    $ python3 task_worker.py

    Connect to server 127.0.0.1...

    run task 3411 * 3411...

    run task 1605 * 1605...

    run task 1398 * 1398...

    run task 4729 * 4729...

    run task 5300 * 5300...

    run task 7471 * 7471...

    run task 68 * 68...

    run task 4219 * 4219...

    run task 339 * 339...

    run task 7866 * 7866...

    worker exit.

    task_worker.py进程结束,在task_master.py进程中会继续打印出结果:

    Result: 3411 * 3411 = 11634921

    Result: 1605 * 1605 = 2576025

    Result: 1398 * 1398 = 1954404

    Result: 4729 * 4729 = 22363441

    Result: 5300 * 5300 = 28090000

    Result: 7471 * 7471 = 55815841

    Result: 68 * 68 = 4624

    Result: 4219 * 4219 = 17799961

    Result: 339 * 339 = 114921

    Result: 7866 * 7866 = 61873956

    这个简单的Master/Worker模型有什么用?其实这就是一个简单但真正的分布式计算,把代码稍加改造,启动多个worker,就可以把任务分布到几台甚至几十台机器上,比如把计算n*n的代码换成发送邮件,就实现了邮件队列的异步发送。

    Queue对象存储在哪?注意到task_worker.py中根本没有创建Queue的代码,所以,Queue对象存储在task_master.py进程中:

    Queue之所以能通过网络访问,就是通过QueueManager实现的。由于QueueManager管理的不止一个Queue,所以,要给每个Queue的网络调用接口起个名字,比如get_task_queue

    authkey有什么用?这是为了保证两台机器正常通信,不被其他机器恶意干扰。如果task_worker.pyauthkeytask_master.pyauthkey不一致,肯定连接不上。

    小结:

    Python的分布式进程接口简单,封装良好,适合需要把繁重任务分布到多台机器的环境下。

    注意Queue的作用是用来传递任务和接收结果,每个任务的描述数据量要尽量小。比如发送一个处理日志文件的任务,就不要发送几百兆的日志文件本身,而是发送日志文件存放的完整路径,由Worker进程再去共享的磁盘上读取文件。

    展开全文
  • python 多进程和多线程

    千次阅读 2020-07-03 20:38:18
    本文通过一些具体的例子简单介绍一下python多线程和多进程,后续会写一些进程通信和线程通信的一些文章。 python多线程 python中提供两个标准库thread和threading用于对线程的支持,python3中已放弃对前者的支持...
  • 一个应用程序至少包括1个进程,而1个进程包括1个或线程线程的尺度更小。 每个进程在执行过程中拥有独立的内存单元,而一个线程线程在执行过程中共享内存。 2.区别 (1)线程与资源分配无关,它属于...
  • 主要介绍了Python多线程、异步+多进程爬虫实现代码,需要的朋友可以参考下
  • 主要介绍了Python单线程多线程和多进程效率对比,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  • Python多进程+多线程+协程同时应用

    千次阅读 2022-02-08 15:07:18
    """10000个请求,开启2个进程进程中开启3个线程线程中开启5个协程来处理 """ import requests, time from multiprocessing import Queue, Process import threading import gevent def process_work(q, p_...
  • Python干货:多进程多线程

    千次阅读 2021-01-29 18:26:01
    今天我们来聊聊Python里面的多进程多线程编程模式。01 多线程工作在开始讲今天的正文之前,先给大家介绍一个概念「多线程工作」,这个概念可能有的人听过,也可能有的人平常工作中就是这么做的。我再来给大家讲讲...
  • 压缩包内包含四个文件,实现的效果都是通过多线程多进程执行加法运算; multiprocess_queue,通过任务队列方式实现多进程任务;(multiprocessing模块) multithread_queue,通过任务队列方式实现多线程任务;...
  • 主要介绍了Python多进程并发与多线程并发编程,结合实例形式总结分析了Python编程中的多进程并发与多线程并发相关概念、使用方法与操作注意事项,需要的朋友可以参考下
  • python多进程和多线程看这一篇就够了

    千次阅读 多人点赞 2020-10-10 22:08:35
    脑海中关于进程线程的概念一直很模糊,什么时候该用多进程,什么时候该用多线程总是搞不清楚。同时python因为历史遗留问题存在GIL全局锁,就让人更加困惑。这一篇就完整整理一下python中进程线程的概念实现。 ...
  • Python多线程和多进程爬虫

    千次阅读 2022-01-17 14:19:16
    Python多线程和多进程爬虫 1.多线程爬虫 使用threading的Thread 和queue进行爬虫 a.第一个实例(非爬虫) from threading import Thread import time def coding(): for x in range(5): print('%s正在写代码' % x)...
  • 本文通过一些具体的例子简单介绍一下python多线程和多进程,后续会写一些进程通信和线程通信的一些文章。 python多线程 python中提供两个标准库thread和threading用于对线程的支持,python3中已放弃对前者的支持...
  • python的并发编程多线程多进程和协程深入理解
  • 主要为大家详细介绍了Python实现多线程/多进程的TCP服务器,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  • python深度解析之多线程多进程协程,文章对多进程的协程做了原理介绍代码的实例说明,能很快明白其中的用法,很不错,推荐给大家
  • 多进程并发提高数字运算在计算机编程领域,并发编程是一个很常见的名词功能了,其实并发这个理念,最初是源于铁路电报的早期工作。比如在同一个铁路系统上如何安排多列火车,保证每列火车的运行都不会发生冲突。...
  • python多进程多线程,多个程序同时运行

    万次阅读 多人点赞 2021-04-08 13:47:15
    python 多线程 多进程同时运行 多任务要求 python 基础语法 python 文件目录操作 python 模块应用 开发工具 pycharm 实现方法 多任务的实现可以用进程线程来实现 进程—> 线程----> 多任务应用 多进程操作...
  • 本篇文章详细的介绍了python并发编程之多进程多线程、异步协程,对初学python有一定的了解作用,需要的朋友可以参考下。
  • Python 多进程和数据传递的理解 python不仅线程用的是系统原生线程,进程也是用的原生进程 进程的用法和线程大同小异 import multiprocessing p = multiprocessing.Process(target=fun,args=()) 线程的基本方法...
  • 本文实例讲述了Python多进程分块读取超大文件的方法。分享给大家供大家参考,具体如下: 读取超大的文本文件,使用多进程分块读取,将每一块单独输出成文件 # -*- coding: GBK -*- import urlparse import datetime...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 131,135
精华内容 52,454
关键字:

python多进程和多线程