我正在用pythonselenium
构建一个网络抓取工具。该脚本抓取了诸如Amazon和Flipcart之类的网站,但无法抓取堆栈溢出和时尚。它总是向我返回一个空白的.csv文件。
这是我的堆栈oveflow代码:
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
import pandas as pd
user_agent = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) \ Chrome/80.0.3987.132 Safari/537.36'
driver_exe = 'chromedriver'
options = Options()
options.add_argument("--headless")
options.add_argument(f'user-agent={user_agent}')
options.add_argument("--disable-web-security")
options.add_argument("--allow-running-insecure-content")
options.add_argument("--allow-cross-origin-auth-prompt")
options.add_argument("--disable-cookie-encryption")
driver = webdriver.Chrome(executable_path=r"C:\Users\intel\Downloads\Setups\chromedriver.exe", options=options)
driver.get("https://stackoverflow.com/")
class_Name = "." + "question-hyperlink"
x = driver.find_elements_by_css_selector(class_Name.replace(' ','.'))
web_content_list = []
for i in x:
web_content_dict = {}
web_content_dict["Title"] = i.text
web_content_list.append(web_content_dict)
df = pd.DataFrame(web_content_list)
df.to_csv(r'C:\Users\intel\Desktop\data_file.csv', index=False, mode='a', encoding='utf-8')
上面的stackovrflow代码通过在链接中添加/ questions来解决。
OFashion网站的代码*
from selenium import webdriver from selenium.webdriver.chrome.options import Options import pandas as pd import time
user_agent = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/80.0.3987.132 Safari/537.36'
driver_exe = 'chromedriver' options = Options() #options.add_argument("--headless") options.add_argument(f'user-agent={user_agent}') options.add_argument("--disable-web-security") options.add_argument("--allow-running-insecure-content") options.add_argument("--allow-cross-origin-auth-prompt")
driver = webdriver.Chrome(executable_path=r"C:\Users\intel\Downloads\Setups\chromedriver.exe", options=options) driver.get("https://www.ofashion.com.cn/goods/10001?t=15777838840003") class_Name = "." + "content-par" x = driver.find_elements_by_css_selector(class_Name.replace(' ','.')) web_content_list = []
for i in x: web_content_dict = {} web_content_dict["Title"] = i.text web_content_list.append(web_content_dict)
df = pd.DataFrame(web_content_list) df.to_csv(r'C:\Users\intel\Desktop\data_file.csv', index=False, mode='a', encoding='utf-8')
问题来源:stackoverflow
这是您的问题-您尚未登录。StackOverflow仅在您登录时向您显示问题-因此,如果您进行登录,则程序单击“登录”按钮,输入用户名和密码,然后提交,代码将从那里开始。(我通过删除无头属性发现了这一点)
回答来源:stackoverflow
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。