Aiohttp, Asyncio: RuntimeError: цикл событий закрыт

у меня есть два сценария, scraper.py и db_control.py - ... В scraper.py у меня есть что-то вроде этого:

...
def scrap(category, field, pages, search, use_proxy, proxy_file):
    ...
    loop = asyncio.get_event_loop()

    to_do = [ get_pages(url, params, conngen) for url in urls ]
    wait_coro = asyncio.wait(to_do)
    res, _ = loop.run_until_complete(wait_coro)
    ...
    loop.close()

    return [ x.result() for x in res ]

...

и в db_control.py:

from scraper import scrap
...
while new < 15:
    data = scrap(category, field, pages, search, use_proxy, proxy_file)
    ...
...

теоретически, скраппер должен быть запущен неизвестно-раз, пока не будет получено достаточно данных. Но когда!--3--> - это не imidiatelly > 15 затем эта ошибка возникает:

  File "/usr/lib/python3.4/asyncio/base_events.py", line 293, in run_until_complete
self._check_closed()
  File "/usr/lib/python3.4/asyncio/base_events.py", line 265, in _check_closed
raise RuntimeError('Event loop is closed')
RuntimeError: Event loop is closed

но скрипты отлично работают, если я запускаю scrap () только один раз. Так что я думаю, есть некоторые проблемы с воссозданием loop = asyncio.get_event_loop(), Я пробовал этой но ничего не изменилось. Как я могу это исправить? Конечно, это только фрагменты моего кода, если вы думаете, что проблема может быть в другом месте, полный код доступен здесь.

1 ответов


методы run_until_complete, run_forever, run_in_executor, create_task, call_at явно проверять исключение loop и throw, если оно закрыто.

цитата из docs -BaseEvenLoop.close:

это идемпотент и необратимые


если у вас нет (хороших) причин, вы можете просто опустить закрытие строка:

def scrap(category, field, pages, search, use_proxy, proxy_file):
    #...
    loop = asyncio.get_event_loop()

    to_do = [ get_pages(url, params, conngen) for url in urls ]
    wait_coro = asyncio.wait(to_do)
    res, _ = loop.run_until_complete(wait_coro)
    #...
    # loop.close()
    return [ x.result() for x in res ]

если вы хотите иметь каждый раз новый цикл, вы должны создать его вручную и установить по умолчанию:

def scrap(category, field, pages, search, use_proxy, proxy_file):
    #...
    loop = asyncio.new_event_loop()
    asyncio.set_event_loop(loop)    
    to_do = [ get_pages(url, params, conngen) for url in urls ]
    wait_coro = asyncio.wait(to_do)
    res, _ = loop.run_until_complete(wait_coro)
    #...
    return [ x.result() for x in res ]