我通过以下方式解决了我的问题:

最初我负责研究。每项研究都是一个独立的过程。我的问题是,我希望这些进程在某个超时后自行“死亡”。我不能对每个进程执行p.join(timeout)后的y p.terminate(),因为这样会进入主循环并延迟新进程的启动,直到前一个进程不存在为止。在

解决方案是引入一个层次结构,其中p.start()不直接启动我感兴趣的进程(“myprocess”),而是另一个负责终止的进程。我叫它“多迪”:jobs = [] # this list will contain all jobs

for i in studies: # we will call as many processes as elements in studies

arguments = (i) # my arguments

p = multiprocessing.Process(target = dordie, args = arguments)

jobs.append(p) # list of jobs

p.start() # start process

“dordie”负责启动每个“myprocess”并在上面的“for”循环之外杀死每个进程,这样可以确保无论启动多少个进程,它们总是比内部硬编码的超时时间更早死亡,但同时,没有什么可以阻止启动更多的进程。在

^{pr2}$

我不是一个程序员,所以这可能不是一个优雅的解决方案,虽然它的工作像一个奇迹!谢谢你的建议。在

更多推荐

python为什么会出现无响应怎么办,Python多处理中无响应进程的终止