много потоков для записи файла журнала одновременно python

Я пишу сценарий для получения информации WMI со многих компьютеров одновременно, а затем записываю эту информацию в текстовый файл:
проблема в том, что все потоки пишут одновременно

f = open("results.txt", 'w+') ## to clean the results file before the start


def filesize(asset):  
    f = open("results.txt", 'a+')  
    c = wmi.WMI(asset)  
    wql = 'SELECT FileSize,Name FROM CIM_DataFile where (Drive="D:" OR Drive="E:") and Caption like "%file%"'  
    for item in c.query(wql):  
        print >> f, item.Name.split("")[2].strip().upper(), str(item.FileSize)  




class myThread (threading.Thread):  
    def __init__(self,name):  
        threading.Thread.__init__(self)  
        self.name = name  
    def run(self):  
        pythoncom.CoInitialize ()  
        print "Starting " + self.name       
        filesize(self.name)  
        print "Exiting " + self.name  



thread1 = myThread('10.24.2.31')  
thread2 = myThread('10.24.2.32')  
thread3 = myThread('10.24.2.33')  
thread4 = myThread('10.24.2.34')  
thread1.start()  
thread2.start()  
thread3.start()  
thread4.start()

3 ответов


Вы можете просто создать свой собственный механизм блокировки, чтобы гарантировать, что только один поток-либо записи в файл.

import threading
lock = threading.Lock()

def write_to_file(f, text, file_size):
    lock.acquire() # thread blocks at this line until it can obtain lock

    # in this section, only one thread can be present at a time.
    print >> f, text, file_size

    lock.release()

def filesize(asset):  
    f = open("results.txt", 'a+')  
    c = wmi.WMI(asset)  
    wql = 'SELECT FileSize,Name FROM CIM_DataFile where (Drive="D:" OR Drive="E:") and Caption like "%file%"'  
    for item in c.query(wql):  
        write_to_file(f, item.Name.split("\")[2].strip().upper(), str(item.FileSize))

вы можете рассмотреть возможность размещения блокировки вокруг всего цикла for for item in c.query(wql): чтобы позволить каждому потоку выполнить больший кусок работы, прежде чем отпустить блокировку.


print не является потокобезопасным. Используйте logging модуль, а не (что):

import logging
import threading
import time


FORMAT = '[%(levelname)s] (%(threadName)-10s) %(message)s'

logging.basicConfig(level=logging.DEBUG,
                    format=FORMAT)

file_handler = logging.FileHandler('results.log')
file_handler.setFormatter(logging.Formatter(FORMAT))
logging.getLogger().addHandler(file_handler)


def worker():
    logging.info('Starting')
    time.sleep(2)
    logging.info('Exiting')


t1 = threading.Thread(target=worker)
t2 = threading.Thread(target=worker)

t1.start()
t2.start()

вывод (и содержимое results.log):

[INFO] (Thread-1  ) Starting
[INFO] (Thread-2  ) Starting
[INFO] (Thread-1  ) Exiting
[INFO] (Thread-2  ) Exiting

вместо использования имени по умолчанию (Thread-n), вы можете установить свое собственное имя с помощью name аргумент ключевого слова, который %(threadName) директива форматирования затем будет использовать:

t = threading.Thread(name="My worker thread", target=worker)

(этот пример был адаптирован из примера из отличная статья Дуга Хеллмана о the threading модуль)


для другого решения используйте Pool чтобы вычислить данные, верните их в родительский процесс. Этот родитель записывает все данные в файл. Поскольку в файл одновременно записывается только один proc, нет необходимости в дополнительной блокировке.

обратите внимание, что ниже используется пул процессы, а не темы. Это делает код намного проще и проще, чем собрать что-то вместе с помощью threading модуль. (Есть ThreadPool "объект", но это не зарегистрированный.)

источник

import glob, os, time
from multiprocessing import Pool

def filesize(path):
    time.sleep(0.1)
    return (path, os.path.getsize(path))

paths = glob.glob('*.py')
pool = Pool()                   # default: proc per CPU

with open("results.txt", 'w+') as dataf:
    for (apath, asize) in pool.imap_unordered(
            filesize, paths,
    ):
        print >>dataf, apath,asize

вывод результатов.txt

zwrap.py 122
usercustomize.py 38
tpending.py 2345
msimple4.py 385
parse2.py 499