Механизируйте и Python, нажав href="javascript:void(0);" ссылки и получив ответ
мне нужно выбросить некоторые данные со страницы, где я заполняю форму (уже сделал это с помощью mechanize). Проблема в том, что страница возвращает данные на многих страницах, и у меня проблемы с получением данных от этих страниц.
нет проблем, чтобы получить их с первой страницы результатов, так как она отображается уже после поиска - я просто отправляю форму и получаю ответ.
Я проанализировал исходный код страницы результатов, и, похоже, он использует Java-скрипт, RichFaces (некоторые lib для JSF с ajax, но я могу ошибаться, так как я не являюсь веб-экспертом).
однако мне удалось выяснить, как добраться до оставшихся страниц результатов. Мне нужно нажать ссылки, которые находятся в этой форме (href="javascript:void(0);"
, полный код ниже):
<td class="pageNumber"><span class="rf-ds " id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233"><span class="rf-ds-nmb-btn rf-ds-act " id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_1">1</span><a class="rf-ds-nmb-btn " href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_2">2</a><a class="rf-ds-nmb-btn " href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_3">3</a><a class="rf-ds-nmb-btn " href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_4">4</a><a class="rf-ds-nmb-btn " href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_5">5</a><a class="rf-ds-nmb-btn " href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_6">6</a><a class="rf-ds-nmb-btn " href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_7">7</a><a class="rf-ds-nmb-btn " href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_8">8</a><a class="rf-ds-nmb-btn " href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_9">9</a><a class="rf-ds-nmb-btn " href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_10">10</a><a class="rf-ds-btn rf-ds-btn-next" href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_next">»</a><a class="rf-ds-btn rf-ds-btn-last" href="javascript:void(0);" id="SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_l">»»»»</a>
<script type="text/javascript">new RichFaces.ui.DataScroller("SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233",function(event,element,data){RichFaces.ajax("SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233",event,{"parameters":{"SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233:page":data.page} ,"incId":"1"} )},{"digitals":{"SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_9":"9","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_8":"8","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_7":"7","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_6":"6","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_5":"5","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_4":"4","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_3":"3","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_1":"1","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_10":"10","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_2":"2"} ,"buttons":{"right":{"SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_next":"next","SomeSimpleForm:SomeSimpleTable:j_idt211:j_idt233_ds_l":"last"} } ,"currentPage":1} )</script></span></td>
<td class="pageExport"><script type="text/javascript" src="/opi/javax.faces.resource/download.js?ln=js/component&b="></script><script type="text/javascript">
поэтому я хотел бы спросить, есть ли способ щелкнуть все ссылки и получить все страницы с помощью mechanize (обратите внимание, что после »
символ доступно больше страниц)? Я спрашиваю об ответах для total dummies с web знание :)
2 ответов
прежде всего, я бы все равно придерживался Селена, так как это довольно "javascript-тяжелый" сайт. Обратите внимание, что вы можете использовать безголовый браузер (PhantomJS
или виртуальный дисплей), если это необходимо.
идея здесь состояла бы в том, чтобы разбить на страницы по 100 строк на страницу, нажмите на ссылку">>", пока она не появится на странице, что означало бы, что мы попали на последнюю страницу и больше нет результатов для обработки. Чтобы сделать решение надежным, нам нужно использовать Явные Ожидания: каждый раз, когда мы переходим к следующей странице - ждать невидимку загрузка Spinner.
рабочая реализация:
# -*- coding: utf-8 -*-
from selenium.common.exceptions import NoSuchElementException
from selenium.webdriver.common.by import By
from selenium import webdriver
from selenium.webdriver.support.select import Select
from selenium.webdriver.support.wait import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
driver = webdriver.Firefox()
driver.maximize_window()
driver.get('https://polon.nauka.gov.pl/opi/aa/drh/zestawienie?execution=e1s1')
wait = WebDriverWait(driver, 30)
# paginate by 100
select = Select(driver.find_element_by_id("drhPageForm:drhPageTable:j_idt211:j_idt214:j_idt220"))
select.select_by_visible_text("100")
while True:
# wait until there is no loading spinner
wait.until(EC.invisibility_of_element_located((By.ID, "loadingPopup_content_scroller")))
current_page = driver.find_element_by_class_name("rf-ds-act").text
print("Current page: %d" % current_page)
# TODO: collect the results
# proceed to the next page
try:
next_page = driver.find_element_by_link_text(u"»")
next_page.click()
except NoSuchElementException:
break
это работает для меня: кажется, весь html доступен в page
import time
from selenium import webdriver
driver = webdriver.Firefox()
driver.get('https://polon.nauka.gov.pl/opi/aa/drh/zestawienie')
next_id = 'drhPageForm:drhPageTable:j_idt211:j_idt233_ds_next'
pages = []
it = 0
while it < 1795:
time.sleep(1)
it += 1
bad = True
while bad:
try:
driver.find_element_by_id(next_id).click()
bad = False
except:
print('retry')
page = driver.page_source
pages.append(page)
вместо того, чтобы сначала собирать и хранить весь html, вы также можете просто запросить то, что хотите, но вам понадобится lxml
или BeautifulSoup
для этого.
EDIT: после запуска его действительно я заметил, что мы получили ошибку. Это было просто поймать исключение и повторить.