Python之Selenium模拟浏览器

简介: Python之Selenium模拟浏览器

1.什么是selenium


http://www.selenium.org.cn/


Selenium是一个用于Web应用程序测试的工具。

Selenium 测试直接运行在浏览器中,就像真正的用户在操作一样。

支持通过各种driver(FirfoxDriver,IternetExplorerDriver,OperaDriver,ChromeDriver)驱动 真实浏览器完成测试。

selenium也是支持无界面浏览器操作的。


2.为什么使用selenium


模拟浏览器功能,自动执行网页中的js代码,实现动态加载。使请求更加真实(好像是真的浏览器在请求)


3.如何安装selenium


(1)操作谷歌浏览器驱动下载地址,两个地址都可以。只对应大版本就行,向下兼容


http://chromedriver.storage.googleapis.com/index.html

http://npm.taobao.org/mirrors/chromedriver/

(2)查看谷歌浏览器版本 谷歌浏览器右上角‐‐>帮助‐‐>关于

(3)安装python库,python安装目录Scripts目录下执行:

pip install selenium -i  https://pypi.douban.com/simple/

安装失败的尝试升级pip:python -m pip install --upgrade pip

1673438258672.jpg

windows系统直接下载32位,下载完不要安装


4. selenium的使用步骤


(1)导入:from selenium import webdriver 
(2)创建谷歌浏览器操作对象: 
  path = 谷歌浏览器驱动文件路径 
    browser = webdriver.Chrome(path) 
(3)访问网址 
  url = 要访问的网址 
    browser.get(url)


基本使用示例:

# (1)导入selenium
from selenium import webdriver
# 下载的selenium解压后文件的路径,放在项目里lib/目录下
path = 'lib/chromedriver.exe'
# (2) 创建浏览器操作对象
browser = webdriver.Chrome(path)
# (3)访问网站
# url = 'https://www.baidu.com'
#
# browser.get(url)
url = 'https://www.jd.com/'
browser.get(url)
# page_source获取网页源码
content = browser.page_source
print(content)


5. selenium的元素操作


5.1元素定位:


自动化要做的就是模拟鼠标和键盘来操作来操作这些元素,点击、输入等等。操作这些元素前首先

要找到它们,WebDriver提供很多定位元素的方法


Google Chrome浏览器103版本语法

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.service import Service
s = Service(r'lib/chromedriver.exe')
browser = webdriver.Chrome(service=s)
url = 'https://www.baidu.com'
browser.get(url)
# 元素定位
# 根据id来找到对象 旧版本语法:find_element_by_id
button = browser.find_element(By.ID, 'su')
print(button)
# 根据标签属性的属性值来获取对象的  旧版本语法:find_element_by_name
button = browser.find_element(By.NAME, 'wd')
print(button)
# 根据xpath语句来获取对象  旧版本语法:find_elements_by_xpath
button = browser.find_elements(By.XPATH, '//input[@id="su"]')
print(button)
# 根据标签的名字来获取对象  旧版本语法:find_elements_by_tag_name
button = browser.find_elements(By.TAG_NAME, 'input')
print(button)
# 使用的bs4的语法来获取对象,旧版本语法:find_elements_by_css_selector
button = browser.find_elements(By.CSS_SELECTOR, '#su')
print(button)
# 旧版本语法:find_element_by_link_text
button = browser.find_element(By.LINK_TEXT, '网盘')
print(button)


5.2 访问元素信息


Google Chrome浏览器103版本语法


获取元素属性


.get_attribute(‘class’)

获取元素文本


.text

获取标签名


.tag_name

示例:

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.service import Service
s = Service(r'lib/chromedriver.exe')
browser = webdriver.Chrome(service=s)
url = 'http://www.baidu.com'
browser.get(url)
# 获取id为su的元素
input = browser.find_element(By.ID, 'su')
# 获取标签的属性
print(input.get_attribute('class'))
# 获取标签的名字
print(input.tag_name)
# 获取元素value属性
print(input.get_attribute('value'))
# 获取元素文本,就是两个标签直接的文本
a = browser.find_element(By.LINK_TEXT, '新闻')
print(a.text)

1673438338493.jpg


5.3 交互


点击:click() 
输入:send_keys() 
后退操作:browser.back() 
前进操作:browser.forword() 
  模拟JS滚动: js='document.documentElement.scrollTop=100000' 
  browser.execute_script(js) 执行js代码 
获取网页代码:page_source 
退出:browser.quit()


示例:

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.service import Service
import time
# 创建浏览器对象
s = Service(r'lib/chromedriver.exe')
browser = webdriver.Chrome(service=s)
# url
url = 'https://www.baidu.com'
browser.get(url)
time.sleep(2)
# 获取文本框的对象
input = browser.find_element(By.ID, 'kw')
# 在文本框中输入selenium
input.send_keys('selenium')
time.sleep(2)
# 获取百度一下的按钮
button = browser.find_element(By.ID, 'su')
# 点击按钮
button.click()
time.sleep(2)
# 滑到底部, 固定写法 一般写100000
js_bottom = 'document.documentElement.scrollTop=100000'
browser.execute_script(js_bottom)
time.sleep(2)
# 获取下一页的按钮
next = browser.find_element(By.XPATH, '//a[@class="n"]')
# 点击下一页
next.click()
time.sleep(3)
# 回到上一页
browser.back()
time.sleep(3)
# 再回去,前进
browser.forward()
time.sleep(3)
# 退出
browser.quit()


相关文章
|
8月前
|
Web App开发 存储 前端开发
Python+Selenium自动化爬取携程动态加载游记
Python+Selenium自动化爬取携程动态加载游记
|
6月前
|
SQL 测试技术 数据库
healenium+python+selenium
上次介绍了如何利用healenium+java+selenium来实现selenium的自愈,这次介绍如何healenium+python+selenium。关于healenium+python+selenium网上资料更少,并且甚至是错误的。在著名的书籍《软件测试权威指南中》也是有一定问题的。现在介绍如下
377 4
|
10月前
|
数据采集 Web App开发 JavaScript
基于Selenium的Python爬虫抓取动态App图片
基于Selenium的Python爬虫抓取动态App图片
755 68
|
9月前
|
数据采集 Web App开发 JavaScript
无头浏览器技术:Python爬虫如何精准模拟搜索点击
无头浏览器技术:Python爬虫如何精准模拟搜索点击
|
10月前
|
数据采集 Web App开发 前端开发
Python+Selenium爬虫:豆瓣登录反反爬策略解析
Python+Selenium爬虫:豆瓣登录反反爬策略解析
|
11月前
|
数据采集 JavaScript 前端开发
Pyppeteer实战:基于Python的无头浏览器控制新选择
本文详细讲解了如何使用 Pyppeteer 结合爬虫代理高效采集小红书热点推荐信息。通过设置代理 IP、Cookie 和自定义 User-Agent,突破目标网站的反爬机制,实现标题、内容和评论的数据提取。文章结合代码示例与技术关系图谱,清晰展示从数据采集到分析的全流程,为复杂网站的数据获取提供参考。读者可在此基础上优化异常处理、并发抓取等功能,提升爬虫性能。
755 8
|
数据采集 Web App开发 存储
打造高效的Web Scraper:Python与Selenium的完美结合
本文介绍如何使用Python结合Selenium,通过代理IP、设置Cookie和User-Agent抓取BOSS直聘的招聘信息,包括公司名称、岗位、要求和薪资。这些数据可用于行业趋势、人才需求、企业动态及区域经济分析,为求职者、企业和分析师提供宝贵信息。文中详细说明了环境准备、代理配置、登录操作及数据抓取步骤,并提醒注意反爬虫机制和验证码处理等问题。
411 1
打造高效的Web Scraper:Python与Selenium的完美结合
|
Web App开发 数据采集 数据安全/隐私保护
Selenium库详解:Python实现模拟登录与反爬限制的进阶指南
Selenium库详解:Python实现模拟登录与反爬限制的进阶指南
|
数据采集 Web App开发 前端开发
Python爬虫进阶:Selenium在动态网页抓取中的实战
【10月更文挑战第26天】动态网页抓取是网络爬虫的难点,因为数据通常通过JavaScript异步加载。Selenium通过模拟浏览器行为,可以加载和执行JavaScript,从而获取动态网页的完整内容。本文通过实战案例,介绍如何使用Selenium在Python中抓取动态网页。首先安装Selenium库和浏览器驱动,然后通过示例代码展示如何抓取英国国家美术馆的图片信息。
911 6
|
Web App开发 Java
使用java操作浏览器的工具selenium-java和webdriver下载地址
【10月更文挑战第12天】Selenium-java依赖包用于自动化Web测试,版本为3.141.59。ChromeDriver和EdgeDriver分别用于控制Chrome和Edge浏览器,需确保版本与浏览器匹配。示例代码展示了如何使用Selenium-java模拟登录CSDN,包括设置驱动路径、添加Cookies和获取页面源码。
1038 6