Avoiding deadlocks due to queue overflow with multiprocessing.JoinableQueue(使用多进程避免因队列溢出而导致的死锁。JoinableQueue)
问题描述
假设我们有一个multiprocessing.Pool
,其中工作线程共享multiprocessing.JoinableQueue
,将工作项出队并可能将更多工作入队:
def worker_main(queue):
while True:
work = queue.get()
for new_work in process(work):
queue.put(new_work)
queue.task_done()
当队列填满时,queue.put()
将被阻塞。只要至少有一个进程使用queue.get()
从队列中读取数据,它就会释放队列中的空间以解除对写入器的阻塞。但所有进程可能会同时在queue.put()
阻塞。
有没有办法避免这样的拥堵?
推荐答案
根据process(work)
创建更多项目的频率,在无限大小的队列旁边可能没有解决方案。
简而言之,您的队列必须足够大,以容纳您随时可以拥有的全部积压工作项。
由于queue is implemented with semaphores,可能确实存在a hard size limit of SEM_VALUE_MAX
其中in MacOS is 32767。因此,如果这还不够,您将需要对该实现进行子类化,或者使用put(block=False)
和处理queue.Full
(例如,将多余的项放在其他地方)。
或者,查看one of the 3rd-party implementations of distributed work item queue for Python。
这篇关于使用多进程避免因队列溢出而导致的死锁。JoinableQueue的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!
本文标题为:使用多进程避免因队列溢出而导致的死锁。JoinableQueue


- 如何使用PYSPARK从Spark获得批次行 2022-01-01
- 使用公司代理使Python3.x Slack(松弛客户端) 2022-01-01
- 计算测试数量的Python单元测试 2022-01-01
- ";find_element_by_name(';name';)";和&QOOT;FIND_ELEMENT(BY NAME,';NAME';)";之间有什么区别? 2022-01-01
- YouTube API v3 返回截断的观看记录 2022-01-01
- 我如何卸载 PyTorch? 2022-01-01
- 使用 Cython 将 Python 链接到共享库 2022-01-01
- 我如何透明地重定向一个Python导入? 2022-01-01
- CTR 中的 AES 如何用于 Python 和 PyCrypto? 2022-01-01
- 检查具有纬度和经度的地理点是否在 shapefile 中 2022-01-01