Неблокирующее чтение в подпроцессе.Труба в python
Я использую модуль подпроцесс чтобы запустить подпроцесс и подключиться к его выходному потоку (stdout). Я хочу иметь возможность выполнять неблокирующие чтения на своем stdout. Есть ли способ сделать .readline non-blocking или проверить, есть ли данные в потоке, прежде чем я вызову .readline
? Я бы хотел, чтобы это было портативным или, по крайней мере, работало под Windows и Linux.
вот как я это делаю сейчас (он блокирует .readline
если нет доступных данных):
p = subprocess.Popen('myprogram.exe', stdout = subprocess.PIPE)
output_str = p.stdout.readline()
26 ответов
fcntl
, select
, asyncproc
не поможет в этом случае.
надежный способ чтения потока без блокировки независимо от операционной системы-использовать Queue.get_nowait()
:
import sys
from subprocess import PIPE, Popen
from threading import Thread
try:
from queue import Queue, Empty
except ImportError:
from Queue import Queue, Empty # python 2.x
ON_POSIX = 'posix' in sys.builtin_module_names
def enqueue_output(out, queue):
for line in iter(out.readline, b''):
queue.put(line)
out.close()
p = Popen(['myprogram.exe'], stdout=PIPE, bufsize=1, close_fds=ON_POSIX)
q = Queue()
t = Thread(target=enqueue_output, args=(p.stdout, q))
t.daemon = True # thread dies with the program
t.start()
# ... do other things here
# read line without blocking
try: line = q.get_nowait() # or q.get(timeout=.1)
except Empty:
print('no output yet')
else: # got line
# ... do something with line
у меня часто была аналогичная проблема; программы Python, которые я пишу, часто должны иметь возможность выполнять некоторые основные функции, одновременно принимая пользовательский ввод из командной строки (stdin). Простое включение функции обработки пользовательского ввода в другой поток не решает проблему, потому что readline()
блоки и не имеет тайм-аута. Если основная функциональность завершена, и больше нет необходимости ждать дальнейшего ввода пользователя, я обычно хочу, чтобы моя программа вышла, но это невозможно, потому что readline()
по-прежнему блокируется в другом потоке, ожидая строки. Решение, которое я нашел для этой проблемы, - сделать stdin неблокирующим файлом, используя модуль fcntl:
import fcntl
import os
import sys
# make stdin a non-blocking file
fd = sys.stdin.fileno()
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
# user input handling thread
while mainThreadIsRunning:
try: input = sys.stdin.readline()
except: continue
handleInput(input)
на мой взгляд, это немного чище, чем использование модулей select или signal для решения этой проблемы, но опять же это работает только на UNIX...
Python 3.4 представляет новый предварительный API для асинхронного ввода-вывода -- asyncio
модуль.
подход похож на twisted
- на основе ответа @Bryan Ward -- определите протокол, и его методы будут вызваны, как только данные будут готовы:
#!/usr/bin/env python3
import asyncio
import os
class SubprocessProtocol(asyncio.SubprocessProtocol):
def pipe_data_received(self, fd, data):
if fd == 1: # got stdout data (bytes)
print(data)
def connection_lost(self, exc):
loop.stop() # end loop.run_forever()
if os.name == 'nt':
loop = asyncio.ProactorEventLoop() # for subprocess' pipes on Windows
asyncio.set_event_loop(loop)
else:
loop = asyncio.get_event_loop()
try:
loop.run_until_complete(loop.subprocess_exec(SubprocessProtocol,
"myprogram.exe", "arg1", "arg2"))
loop.run_forever()
finally:
loop.close()
посмотреть "подпроцесс" в документах.
существует интерфейс высокого уровня asyncio.create_subprocess_exec()
возвращает Process
объекты что позволяет считывать строку asynchroniosly, используя StreamReader.readline()
сопрограмма
(с async
/await
Python 3.5+ синтаксис):
#!/usr/bin/env python3.5
import asyncio
import locale
import sys
from asyncio.subprocess import PIPE
from contextlib import closing
async def readline_and_kill(*args):
# start child process
process = await asyncio.create_subprocess_exec(*args, stdout=PIPE)
# read line (sequence of bytes ending with b'\n') asynchronously
async for line in process.stdout:
print("got line:", line.decode(locale.getpreferredencoding(False)))
break
process.kill()
return await process.wait() # wait for the child process to exit
if sys.platform == "win32":
loop = asyncio.ProactorEventLoop()
asyncio.set_event_loop(loop)
else:
loop = asyncio.get_event_loop()
with closing(loop):
sys.exit(loop.run_until_complete(readline_and_kill(
"myprogram.exe", "arg1", "arg2")))
readline_and_kill()
выполняет следующие задачи:
- запустите подпроцесс, перенаправьте его stdout в канал
- прочитайте строку из подпроцесса ' stdout асинхронно
- убить подпроцесс
- подождите, пока он выйдет
каждый шаг может быть ограничен таймаутом секунды, если необходимо.
попробовать asyncproc модуль. Например:
import os
from asyncproc import Process
myProc = Process("myprogram.app")
while True:
# check to see if process has ended
poll = myProc.wait(os.WNOHANG)
if poll != None:
break
# print any new output
out = myProc.read()
if out != "":
print out
модуль заботится обо всех потоках, как предложено S. Lott.
вы можете сделать это очень легко в Twisted. В зависимости от существующей базы кода это может быть не так просто использовать, но если вы создаете скрученное приложение, то такие вещи становятся почти тривиальными. Вы создаете ProcessProtocol
класс, и переопределить outReceived()
метод. Скрученный (в зависимости от используемого реактора) обычно просто большой select()
цикл с обратными вызовами, установленными для обработки данных из разных файловых дескрипторов (часто сетевых сокетов). Так что outReceived()
способ просто устанавливает обратный вызов для обработки данных, поступающих из STDOUT
. Простой пример, демонстрирующий это поведение следующим образом:
from twisted.internet import protocol, reactor
class MyProcessProtocol(protocol.ProcessProtocol):
def outReceived(self, data):
print data
proc = MyProcessProtocol()
reactor.spawnProcess(proc, './myprogram', ['./myprogram', 'arg1', 'arg2', 'arg3'])
reactor.run()
на витая документации имеет некоторую хорошую информацию об этом.
если вы создаете все свое приложение вокруг Twisted, это делает асинхронную связь с другими процессами, локальными или удаленными, действительно элегантными. С другой стороны, если ваша программа не построена поверх Twisted, это на самом деле не происходит чтобы быть полезным. Надеюсь, это может быть полезно для других читателей, даже если это не применимо для вашего конкретного приложения.
использовать select & read (1).
import subprocess #no new requirements
def readAllSoFar(proc, retVal=''):
while (select.select([proc.stdout],[],[],0)[0]!=[]):
retVal+=proc.stdout.read(1)
return retVal
p = subprocess.Popen(['/bin/ls'], stdout=subprocess.PIPE)
while not p.poll():
print (readAllSoFar(p))
для readline () - как:
lines = ['']
while not p.poll():
lines = readAllSoFar(p, lines[-1]).split('\n')
for a in range(len(lines)-1):
print a
lines = readAllSoFar(p, lines[-1]).split('\n')
for a in range(len(lines)-1):
print a
одним из решений является создание другого процесса для выполнения чтения процесса или создание потока процесса с таймаутом.
вот потоковая версия функции тайм-аута:
http://code.activestate.com/recipes/473878/
однако, вам нужно прочитать stdout по мере его поступления? Другим решением может быть сброс вывода в файл и ожидание завершения процесса с помощью п.ждать().
f = open('myprogram_output.txt','w')
p = subprocess.Popen('myprogram.exe', stdout=f)
p.wait()
f.close()
str = open('myprogram_output.txt','r').read()
отказ от ответственности: это работает только для Торнадо
вы можете сделать это, установив FD неблокирующим, а затем использовать ioloop для регистрации обратных вызовов. Я упаковал это в яйцо под названием tornado_subprocess и вы можете установить его через PyPI:
easy_install tornado_subprocess
Теперь вы можете сделать что-то вроде этого:
import tornado_subprocess
import tornado.ioloop
def print_res( status, stdout, stderr ) :
print status, stdout, stderr
if status == 0:
print "OK:"
print stdout
else:
print "ERROR:"
print stderr
t = tornado_subprocess.Subprocess( print_res, timeout=30, args=[ "cat", "/etc/passwd" ] )
t.start()
tornado.ioloop.IOLoop.instance().start()
вы также можете использовать его с RequestHandler
class MyHandler(tornado.web.RequestHandler):
def on_done(self, status, stdout, stderr):
self.write( stdout )
self.finish()
@tornado.web.asynchronous
def get(self):
t = tornado_subprocess.Subprocess( self.on_done, timeout=30, args=[ "cat", "/etc/passwd" ] )
t.start()
существующие решения не работают для меня (подробности ниже). Наконец, удалось реализовать readline с помощью read (1) (на основе ответ). Последний не блокирует:
from subprocess import Popen, PIPE
from threading import Thread
def process_output(myprocess): #output-consuming thread
nextline = None
buf = ''
while True:
#--- extract line using read(1)
out = myprocess.stdout.read(1)
if out == '' and myprocess.poll() != None: break
if out != '':
buf += out
if out == '\n':
nextline = buf
buf = ''
if not nextline: continue
line = nextline
nextline = None
#--- do whatever you want with line here
print 'Line is:', line
myprocess.stdout.close()
myprocess = Popen('myprogram.exe', stdout=PIPE) #output-producing process
p1 = Thread(target=process_output, args=(dcmpid,)) #output-consuming thread
p1.daemon = True
p1.start()
#--- do whatever here and then kill process and thread if needed
if myprocess.poll() == None: #kill process; will automatically stop thread
myprocess.kill()
myprocess.wait()
if p1 and p1.is_alive(): #wait for thread to finish
p1.join()
почему существующие решения не работают:
- решения, требующие readline (включая основанные на очереди), всегда блокируются. Это трудно (невозможно?) чтобы убить поток, который выполняет readline. Он будет убит только тогда, когда процесс, который его создал, завершится, но не тогда, когда процесс производства убит.
- смешивание низкоуровневых fcntl с высокоуровневыми вызовами readline может работать неправильно, как указал anonnn.
- С помощью select.poll () является аккуратным, но не работает в Windows в соответствии с документами python.
- использование сторонних библиотек кажется перебор для этой задачи и добавляет дополнительные зависимости.
эта версия неблокирующего чтения не требуют специальных модулей и будет работать из коробки на большинстве дистрибутивов Linux.
import os
import sys
import time
import fcntl
import subprocess
def async_read(fd):
# set non-blocking flag while preserving old flags
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
# read char until EOF hit
while True:
try:
ch = os.read(fd.fileno(), 1)
# EOF
if not ch: break
sys.stdout.write(ch)
except OSError:
# waiting for data be available on fd
pass
def shell(args, async=True):
# merge stderr and stdout
proc = subprocess.Popen(args, shell=False, stdout=subprocess.PIPE, stderr=subprocess.STDOUT)
if async: async_read(proc.stdout)
sout, serr = proc.communicate()
return (sout, serr)
if __name__ == '__main__':
cmd = 'ping 8.8.8.8'
sout, serr = shell(cmd.split())
Я добавляю эту проблему, чтобы прочитать некоторые подпроцесса.К popen поток stdout. Вот мое неблокирующее решение для чтения:
import fcntl
def non_block_read(output):
fd = output.fileno()
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
try:
return output.read()
except:
return ""
# Use example
from subprocess import *
sb = Popen("echo test && sleep 1000", shell=True, stdout=PIPE)
sb.kill()
# sb.stdout.read() # <-- This will block
non_block_read(sb.stdout)
'test\n'
вот мой код, используемый для улавливания каждого вывода из подпроцесса как можно скорее, включая частичные строки. Это насосы, в то же время и stdout и stderr в почти правильном порядке.
протестировано и корректно работало на Python 2.7 linux & windows.
#!/usr/bin/python
#
# Runner with stdout/stderr catcher
#
from sys import argv
from subprocess import Popen, PIPE
import os, io
from threading import Thread
import Queue
def __main__():
if (len(argv) > 1) and (argv[-1] == "-sub-"):
import time, sys
print "Application runned!"
time.sleep(2)
print "Slept 2 second"
time.sleep(1)
print "Slept 1 additional second",
time.sleep(2)
sys.stderr.write("Stderr output after 5 seconds")
print "Eol on stdin"
sys.stderr.write("Eol on stderr\n")
time.sleep(1)
print "Wow, we have end of work!",
else:
os.environ["PYTHONUNBUFFERED"]="1"
try:
p = Popen( argv + ["-sub-"],
bufsize=0, # line-buffered
stdin=PIPE, stdout=PIPE, stderr=PIPE )
except WindowsError, W:
if W.winerror==193:
p = Popen( argv + ["-sub-"],
shell=True, # Try to run via shell
bufsize=0, # line-buffered
stdin=PIPE, stdout=PIPE, stderr=PIPE )
else:
raise
inp = Queue.Queue()
sout = io.open(p.stdout.fileno(), 'rb', closefd=False)
serr = io.open(p.stderr.fileno(), 'rb', closefd=False)
def Pump(stream, category):
queue = Queue.Queue()
def rdr():
while True:
buf = stream.read1(8192)
if len(buf)>0:
queue.put( buf )
else:
queue.put( None )
return
def clct():
active = True
while active:
r = queue.get()
try:
while True:
r1 = queue.get(timeout=0.005)
if r1 is None:
active = False
break
else:
r += r1
except Queue.Empty:
pass
inp.put( (category, r) )
for tgt in [rdr, clct]:
th = Thread(target=tgt)
th.setDaemon(True)
th.start()
Pump(sout, 'stdout')
Pump(serr, 'stderr')
while p.poll() is None:
# App still working
try:
chan,line = inp.get(timeout = 1.0)
if chan=='stdout':
print "STDOUT>>", line, "<?<"
elif chan=='stderr':
print " ERROR==", line, "=?="
except Queue.Empty:
pass
print "Finish"
if __name__ == '__main__':
__main__()
добавление этого ответа здесь, поскольку он предоставляет возможность установить неблокирующие каналы в Windows и Unix.
все ctypes
подробности спасибо @трехтонках это.
существует слегка измененная версия, которая будет использоваться как в системах Unix, так и в Windows.
- Питон3 совместимый (требуется только незначительное изменение).
- включает версию posix и определяет исключение для использования любой.
таким образом, вы можете использовать ту же функцию и исключение для кода Unix и Windows.
# pipe_non_blocking.py (module)
"""
Example use:
p = subprocess.Popen(
command,
stdout=subprocess.PIPE,
)
pipe_non_blocking_set(p.stdout.fileno())
try:
data = os.read(p.stdout.fileno(), 1)
except PortableBlockingIOError as ex:
if not pipe_non_blocking_is_error_blocking(ex):
raise ex
"""
__all__ = (
"pipe_non_blocking_set",
"pipe_non_blocking_is_error_blocking",
"PortableBlockingIOError",
)
import os
if os.name == "nt":
def pipe_non_blocking_set(fd):
# Constant could define globally but avoid polluting the name-space
# thanks to: https://stackoverflow.com/questions/34504970
import msvcrt
from ctypes import windll, byref, wintypes, WinError, POINTER
from ctypes.wintypes import HANDLE, DWORD, BOOL
LPDWORD = POINTER(DWORD)
PIPE_NOWAIT = wintypes.DWORD(0x00000001)
def pipe_no_wait(pipefd):
SetNamedPipeHandleState = windll.kernel32.SetNamedPipeHandleState
SetNamedPipeHandleState.argtypes = [HANDLE, LPDWORD, LPDWORD, LPDWORD]
SetNamedPipeHandleState.restype = BOOL
h = msvcrt.get_osfhandle(pipefd)
res = windll.kernel32.SetNamedPipeHandleState(h, byref(PIPE_NOWAIT), None, None)
if res == 0:
print(WinError())
return False
return True
return pipe_no_wait(fd)
def pipe_non_blocking_is_error_blocking(ex):
if not isinstance(ex, PortableBlockingIOError):
return False
from ctypes import GetLastError
ERROR_NO_DATA = 232
return (GetLastError() == ERROR_NO_DATA)
PortableBlockingIOError = OSError
else:
def pipe_non_blocking_set(fd):
import fcntl
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
return True
def pipe_non_blocking_is_error_blocking(ex):
if not isinstance(ex, PortableBlockingIOError):
return False
return True
PortableBlockingIOError = BlockingIOError
чтобы избежать чтения неполных данных, я написал свой собственный генератор readline (который возвращает строку байтов для каждой строки).
свой генератор, так что вы можете например...
def non_blocking_readlines(f, chunk=1024):
"""
Iterate over lines, yielding b'' when nothings left
or when new data is not yet available.
stdout_iter = iter(non_blocking_readlines(process.stdout))
line = next(stdout_iter) # will be a line or b''.
"""
import os
from .pipe_non_blocking import (
pipe_non_blocking_set,
pipe_non_blocking_is_error_blocking,
PortableBlockingIOError,
)
fd = f.fileno()
pipe_non_blocking_set(fd)
blocks = []
while True:
try:
data = os.read(fd, chunk)
if not data:
# case were reading finishes with no trailing newline
yield b''.join(blocks)
blocks.clear()
except PortableBlockingIOError as ex:
if not pipe_non_blocking_is_error_blocking(ex):
raise ex
yield b''
continue
while True:
n = data.find(b'\n')
if n == -1:
break
yield b''.join(blocks) + data[:n + 1]
data = data[n + 1:]
blocks.clear()
blocks.append(data)
на выберите модуль поможет вам определить, где в следующий полезного сигнала.
тем не менее, вы почти всегда счастливее с отдельными потоками. Один блокирует чтение stdin, другой делает то, что вы не хотите блокировать.
Я создал библиотеку на основе решение Дж. Ф. Себастьяна. Вы можете использовать его.
работая с ответом Дж. Ф. Себастьяна и несколькими другими источниками, я собрал простой менеджер подпроцессов. Он обеспечивает неблокирующее чтение запроса, а также запуск нескольких процессов параллельно. Он не использует какой-либо конкретный вызов ОС (что я знаю) и, следовательно, должен работать в любом месте.
он доступен из pypi, поэтому просто pip install shelljob
. Обратитесь к страница проекта для примеров и подробная документация.
EDIT: эта реализация по-прежнему блокирует. Применение Дж. Ф. Себастьян ответ.
Я пробовал лучшие ответы, но дополнительный риск и обслуживание кода потока были тревожными.
просмотр модуль IO (и будучи ограниченным 2.6), я нашел BufferedReader. Это мое безрезьбовое, неблокирующее решение.
import io
from subprocess import PIPE, Popen
p = Popen(['myprogram.exe'], stdout=PIPE)
SLEEP_DELAY = 0.001
# Create an io.BufferedReader on the file descriptor for stdout
with io.open(p.stdout.fileno(), 'rb', closefd=False) as buffer:
while p.poll() == None:
time.sleep(SLEEP_DELAY)
while '\n' in bufferedStdout.peek(bufferedStdout.buffer_size):
line = buffer.readline()
# do stuff with the line
# Handle any remaining output after the process has ended
while buffer.peek():
line = buffer.readline()
# do stuff with the line
недавно я наткнулся на ту же проблему Мне нужно прочитать одну строку за раз из stream ( tail run в подпроцессе ) в неблокирующем режиме Я хотел избежать следующих проблем: не записывать cpu, не читать поток на один байт (как readline) и т. д.
вот моя реализация https://gist.github.com/grubberr/5501e1a9760c3eab5e0a он не поддерживает windows (опрос), не обрабатывает EOF, но это работает для меня хорошо
зачем беспокоить поток и очередь? в отличие от readline(), BufferedReader.read1 () не блокирует ожидание \r\n, он возвращается как можно скорее, если есть какой-либо выход.
#!/usr/bin/python
from subprocess import Popen, PIPE, STDOUT
import io
def __main__():
try:
p = Popen( ["ping", "-n", "3", "127.0.0.1"], stdin=PIPE, stdout=PIPE, stderr=STDOUT )
except: print("Popen failed"); quit()
sout = io.open(p.stdout.fileno(), 'rb', closefd=False)
while True:
buf = sout.read1(1024)
if len(buf) == 0: break
print buf,
if __name__ == '__main__':
__main__()
в моем случае мне нужен модуль ведения журнала, который улавливает вывод из фоновых приложений и увеличивает его(добавление временных меток, цветов и т. д.).
Я закончил с фоновым потоком, который делает фактический ввод-вывод.следующий код предназначен только для платформ POSIX. Я снял несущественные части.
Если кто-то собирается использовать этого зверя для длительных пробегов, рассмотрите возможность управления открытыми дескрипторами. В моем случае это не было большой проблемой.
# -*- python -*-
import fcntl
import threading
import sys, os, errno
import subprocess
class Logger(threading.Thread):
def __init__(self, *modules):
threading.Thread.__init__(self)
try:
from select import epoll, EPOLLIN
self.__poll = epoll()
self.__evt = EPOLLIN
self.__to = -1
except:
from select import poll, POLLIN
print 'epoll is not available'
self.__poll = poll()
self.__evt = POLLIN
self.__to = 100
self.__fds = {}
self.daemon = True
self.start()
def run(self):
while True:
events = self.__poll.poll(self.__to)
for fd, ev in events:
if (ev&self.__evt) != self.__evt:
continue
try:
self.__fds[fd].run()
except Exception, e:
print e
def add(self, fd, log):
assert not self.__fds.has_key(fd)
self.__fds[fd] = log
self.__poll.register(fd, self.__evt)
class log:
logger = Logger()
def __init__(self, name):
self.__name = name
self.__piped = False
def fileno(self):
if self.__piped:
return self.write
self.read, self.write = os.pipe()
fl = fcntl.fcntl(self.read, fcntl.F_GETFL)
fcntl.fcntl(self.read, fcntl.F_SETFL, fl | os.O_NONBLOCK)
self.fdRead = os.fdopen(self.read)
self.logger.add(self.read, self)
self.__piped = True
return self.write
def __run(self, line):
self.chat(line, nl=False)
def run(self):
while True:
try: line = self.fdRead.readline()
except IOError, exc:
if exc.errno == errno.EAGAIN:
return
raise
self.__run(line)
def chat(self, line, nl=True):
if nl: nl = '\n'
else: nl = ''
sys.stdout.write('[%s] %s%s' % (self.__name, line, nl))
def system(command, param=[], cwd=None, env=None, input=None, output=None):
args = [command] + param
p = subprocess.Popen(args, cwd=cwd, stdout=output, stderr=output, stdin=input, env=env, bufsize=0)
p.wait()
ls = log('ls')
ls.chat('go')
system("ls", ['-l', '/'], output=ls)
date = log('date')
date.chat('go')
system("date", output=date)
Это пример запуска интерактивной команды в подпроцессе, а stdout является интерактивным с помощью псевдо-терминала. Вы можете обратиться к: https://stackoverflow.com/a/43012138/3555925
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import os
import sys
import select
import termios
import tty
import pty
from subprocess import Popen
command = 'bash'
# command = 'docker run -it --rm centos /bin/bash'.split()
# save original tty setting then set it to raw mode
old_tty = termios.tcgetattr(sys.stdin)
tty.setraw(sys.stdin.fileno())
# open pseudo-terminal to interact with subprocess
master_fd, slave_fd = pty.openpty()
# use os.setsid() make it run in a new process group, or bash job control will not be enabled
p = Popen(command,
preexec_fn=os.setsid,
stdin=slave_fd,
stdout=slave_fd,
stderr=slave_fd,
universal_newlines=True)
while p.poll() is None:
r, w, e = select.select([sys.stdin, master_fd], [], [])
if sys.stdin in r:
d = os.read(sys.stdin.fileno(), 10240)
os.write(master_fd, d)
elif master_fd in r:
o = os.read(master_fd, 10240)
if o:
os.write(sys.stdout.fileno(), o)
# restore tty settings back
termios.tcsetattr(sys.stdin, termios.TCSADRAIN, old_tty)
моя проблема немного отличается, поскольку я хотел собрать как stdout, так и stderr из запущенного процесса, но в конечном итоге то же самое, поскольку я хотел отобразить вывод в виджете как его сгенерированный.
Я не хотел прибегать ко многим предложенным обходным путям, используя очереди или дополнительные потоки, поскольку они не должны быть необходимы для выполнения такой общей задачи, как запуск другого скрипта и сбор его вывода.
после прочтения предлагаемых решений и документов python Я решил свою проблему с реализацией ниже. Да, это работает только для POSIX, поскольку я использую select
вызов функции.
Я согласен, что документы запутаны, и реализация неудобна для такой общей задачи сценариев. Я считаю, что более старые версии python имеют разные значения по умолчанию для Popen
и разные объяснения, так что возникает много путаницы. Это, похоже, хорошо работает как для Python 2.7.12, так и для 3.5.2.
ключ должен был установить bufsize=1
для линии буферизация, а затем universal_newlines=True
для обработки в виде текстового файла вместо двоичного, который, кажется, становится по умолчанию при установке bufsize=1
.
class workerThread(QThread):
def __init__(self, cmd):
QThread.__init__(self)
self.cmd = cmd
self.result = None ## return code
self.error = None ## flag indicates an error
self.errorstr = "" ## info message about the error
def __del__(self):
self.wait()
DEBUG("Thread removed")
def run(self):
cmd_list = self.cmd.split(" ")
try:
cmd = subprocess.Popen(cmd_list, bufsize=1, stdin=None
, universal_newlines=True
, stderr=subprocess.PIPE
, stdout=subprocess.PIPE)
except OSError:
self.error = 1
self.errorstr = "Failed to execute " + self.cmd
ERROR(self.errorstr)
finally:
VERBOSE("task started...")
import select
while True:
try:
r,w,x = select.select([cmd.stdout, cmd.stderr],[],[])
if cmd.stderr in r:
line = cmd.stderr.readline()
if line != "":
line = line.strip()
self.emit(SIGNAL("update_error(QString)"), line)
if cmd.stdout in r:
line = cmd.stdout.readline()
if line == "":
break
line = line.strip()
self.emit(SIGNAL("update_output(QString)"), line)
except IOError:
pass
cmd.wait()
self.result = cmd.returncode
if self.result < 0:
self.error = 1
self.errorstr = "Task terminated by signal " + str(self.result)
ERROR(self.errorstr)
return
if self.result:
self.error = 1
self.errorstr = "exit code " + str(self.result)
ERROR(self.errorstr)
return
return
ERROR, DEBUG и VERBOSE-это просто макросы, которые печатают вывод на терминал.
это решение является IMHO 99.99% эффективным, поскольку он по-прежнему использует блокировку readline
функция, поэтому мы предполагаем, что подпроцесс хорош и выводит полные строки.
Я приветствую обратную связь для улучшения решения, поскольку я все еще новичок в Питон.
Это решение использует select
модуль для "чтения любых доступных данных" из потока ввода-вывода. Эта функция блокирует сначала до тех пор, пока данные не будут доступны, но затем считывает только доступные данные и не блокирует дальше.
учитывая тот факт, что он использует select
module, это работает только на Unix.
код полностью совместим с PEP8.
import select
def read_available(input_stream, max_bytes=None):
"""
Blocks until any data is available, then all available data is then read and returned.
This function returns an empty string when end of stream is reached.
Args:
input_stream: The stream to read from.
max_bytes (int|None): The maximum number of bytes to read. This function may return fewer bytes than this.
Returns:
str
"""
# Prepare local variables
input_streams = [input_stream]
empty_list = []
read_buffer = ""
# Initially block for input using 'select'
if len(select.select(input_streams, empty_list, empty_list)[0]) > 0:
# Poll read-readiness using 'select'
def select_func():
return len(select.select(input_streams, empty_list, empty_list, 0)[0]) > 0
# Create while function based on parameters
if max_bytes is not None:
def while_func():
return (len(read_buffer) < max_bytes) and select_func()
else:
while_func = select_func
while True:
# Read single byte at a time
read_data = input_stream.read(1)
if len(read_data) == 0:
# End of stream
break
# Append byte to string buffer
read_buffer += read_data
# Check if more data is available
if not while_func():
break
# Return read buffer
return read_buffer
Я тоже столкнулся с проблемой, описанной Джесс и решил его, используя "select" как Брэдли, Энди и другие сделали, но в режиме блокировки, чтобы избежать занятого цикла. Он использует фиктивную трубу в качестве поддельного stdin. Выберите блоки и дождитесь готовности stdin или трубы. При нажатии клавиши stdin разблокирует select, и значение ключа можно получить с помощью read (1). Когда другой поток записывает в трубу, труба разблокирует select и его может быть принято как указание на то, что потребность в stdin закончилась. Вот код ссылки:
import sys
import os
from select import select
# -------------------------------------------------------------------------
# Set the pipe (fake stdin) to simulate a final key stroke
# which will unblock the select statement
readEnd, writeEnd = os.pipe()
readFile = os.fdopen(readEnd)
writeFile = os.fdopen(writeEnd, "w")
# -------------------------------------------------------------------------
def getKey():
# Wait for stdin or pipe (fake stdin) to be ready
dr,dw,de = select([sys.__stdin__, readFile], [], [])
# If stdin is the one ready then read it and return value
if sys.__stdin__ in dr:
return sys.__stdin__.read(1) # For Windows use ----> getch() from module msvcrt
# Must finish
else:
return None
# -------------------------------------------------------------------------
def breakStdinRead():
writeFile.write(' ')
writeFile.flush()
# -------------------------------------------------------------------------
# MAIN CODE
# Get key stroke
key = getKey()
# Keyboard input
if key:
# ... do your stuff with the key value
# Faked keystroke
else:
# ... use of stdin finished
# -------------------------------------------------------------------------
# OTHER THREAD CODE
breakStdinRead()
у меня есть оригинальная проблема вопрошающего, но я не хотел вызывать потоки. Я смешал решение Джесси с прямым read () из канала, и мой собственный буфер-обработчик для чтения строк (однако мой подпроцесс-ping - всегда писал полные строки
def set_up_ping(ip, w):
# run the sub-process
# watch the resultant pipe
p = subprocess.Popen(['/bin/ping', ip], stdout=subprocess.PIPE)
# make stdout a non-blocking file
fl = fcntl.fcntl(p.stdout, fcntl.F_GETFL)
fcntl.fcntl(p.stdout, fcntl.F_SETFL, fl | os.O_NONBLOCK)
stdout_gid = gobject.io_add_watch(p.stdout, gobject.IO_IN, w)
return stdout_gid # for shutting down
наблюдатель
def watch(f, *other):
print 'reading',f.read()
return True
и главное программа устанавливает ping, а затем вызывает почтовый цикл gobject.
def main():
set_up_ping('192.168.1.8', watch)
# discard gid as unused here
gobject.MainLoop().run()
любая другая работа прикреплена к обратным вызовам в gobject.
вот модуль, который поддерживает неблокирующие чтения и фоновые записи в python:
https://pypi.python.org/pypi/python-nonblock
обеспечивает функция,
nonblock_read, который будет считывать данные из потока, если они доступны, в противном случае вернет пустую строку (или нет, если поток закрыт с другой стороны, и все возможные данные были прочитаны)
вы также можете рассмотреть Python-subprocess2 модуль
https://pypi.python.org/pypi/python-subprocess2
который добавляет к модулю подпроцесса. Итак, объект, возвращенный из "подпроцесса".Popen " добавлен дополнительный метод runInBackground. Это запускает поток и возвращает объект, который будет автоматически заполняться, поскольку материал записывается в stdout/stderr, не блокируя ваш основной поток.
наслаждайтесь!