我有一个Python脚本,它使用Selenium从website中抓取URL并将其存储在列表中。现在,我想用wget
模块下载它们。
这是代码的相关部分,脚本完成了从网站获得的部分URL:
new_links = []
for link in list_of_links: # trim links
current_strings = link.split("/consultas/coleccion/window.open('")
current_strings[1] = current_strings[1].split("');return")[0]
new_link = current_strings[0] + current_strings[1]
new_links.append(new_link)
for new_link in new_links:
wget.download(new_link)
脚本此时不做任何事情。它从不下载任何PDF,也不会显示错误消息。
我在第二个for
循环中做错了什么?
至于new_links
是否为空的问题。事实并非如此。
print(*new_links, sep = '\n')
给了我这样的链接(这里只有四个):
http://digesto.asamblea.gob.ni/consultas/util/pdf.php?type=rdd&rdd=vPjrUnz0wbA%3D
http://digesto.asamblea.gob.ni/consultas/util/pdf.php?type=rdd&rdd=dsyx6l1Fbig%3D
http://digesto.asamblea.gob.ni/consultas/util/pdf.php?type=rdd&rdd=Cb64W7EHlD8%3D
http://digesto.asamblea.gob.ni/consultas/util/pdf.php?type=rdd&rdd=A4TKEG9x4F8%3D
部分URL如下所示:
/consultas/util/pdf.php?type=rdd&rdd=vPjrUnz0wbA%3D`
然后在它之前添加“基本URL”
http://digesto.asamblea.gob.ni
这是代码的相关部分,刚好在上面的代码之前,它收集部分URL:
list_of_links = [] # will hold the scraped links
tld = 'http://digesto.asamblea.gob.ni'
current_url = driver.current_url # for any links not starting with /
table_id = driver.find_element(By.ID, 'tableDocCollection')
rows = table_id.find_elements_by_css_selector("tbody tr") # get all table rows
for row in rows:
row.find_element_by_css_selector('button').click()
link = row.find_element_by_css_selector('li a[onclick*=pdf]').get_attribute("onclick") # get partial link
if link.startswith('/'):
list_of_links.append(tld + link) # add base to partial link
else:
list_of_links.append(current_url + link)
row.find_element_by_css_selector('button').click()
1条答案
按热度按时间xuo3flqw1#
你的循环正在工作。
尝试将wget版本升级到3.2并检查
输出:下载了四个文件,文件名为pdf。php,pdf(1)。php等。