selenium之百度搜索,结果列表翻页查询

简介: selenium之百度搜索,结果列表翻页查询

                     selenium百度搜索,结果列表翻页查询


实例:百度搜索,结果列表翻页查询

解决问题:解决selenium driver获取web页面元素时,元素过期问题

 

思路1:获取所有“页面翻页链接”元素,然后遍历元素并点击

# -*- coding: utf-8 -*-

fromseleniumimportwebdriver

importtime

 

if__name__ =="__main__":

   driver = webdriver.Firefox()

   driver.maximize_window()  

   driver.get('http://www.baidu.com')  

   driver.implicitly_wait(5)

 

   driver.find_element_by_id('kw1').send_keys('selenium')

   driver.find_element_by_id('su1').click()  

 

   page = driver.find_element_by_id('page')      

   pages = page.find_elements_by_tag_name('a') #查找所有翻页跳转链接

 

#设置滚动条位置为底部

   js ='document.documentElement.scrollTop=10000'

  foreachinpages:

       driver.execute_script(js)  #拖动滚动条到底部

       each.click()

       driver.execute_script(js)

         

   time.sleep(3)    

driver.quit()

 

结果:点击第3页时,程序出错

selenium.common.exceptions.StaleElementReferenceException: Message: u'Element not found in the cache - perhaps the page has changed since it was looked up' ; Stacktrace:

 

cache中找不到元素,可能是在元素被找到之后页面变换了。这就说明,当前页面发生跳转之后,存在cache中的与这个页面相关的元素也被清空了

 

思路2:基于思路1的错误结果分析>先获取每个页面数,然后每次点击某个页面,跳转后重新获取下一个页面翻页链接,然后点击,循环。。

# -*- coding: utf-8 -*-

 

fromseleniumimportwebdriver

importtime

 

if__name__ =="__main__":

   driver = webdriver.Firefox()

   driver.maximize_window()  

   driver.get('http://www.baidu.com')  

   driver.implicitly_wait(5)

 

   driver.find_element_by_id('kw1').send_keys('selenium')

   driver.find_element_by_id('su1').click()  

 

   page = driver.find_element_by_id('page')      

   pages = page.find_elements_by_tag_name('a')

 

   js ='document.documentElement.scrollTop=10000'

   total = len(pages)

   has_pre_page =False

   page_num =0

  foriinrange(total):

       driver.execute_script(js)

       pn=10

       page_num = page_num +1#设置页面号

       one_page = driver.find_element_by_css_selector('p[id="page"]>a:nth-of-type('+str(page_num)+')')

       one_page.click()

   

       #备注以下小段代码描述了页面变化规律,这个得自己去研究

 ifnothas_pre_page: #点击第2页时会出现上一页,页号加1

           has_pre_page =True

           page_num = page_num +1

      ifpage_num %7==0:#page_num等于7时,页号减1

           page_num = page_num -1

   

 time.sleep(2)

       driver.execute_script(js)

       time.sleep(2)

         

   time.sleep(3)    

driver.quit()

 

 

改进版(自动翻页,前翻页后翻页)

# -*- coding: utf-8 -*-

 

fromseleniumimportwebdriver

importtime

 

if__name__ =="__main__":

   driver = webdriver.Firefox()

   driver.maximize_window()  

   driver.get('http://www.baidu.com')  

   driver.implicitly_wait(5)

 

   driver.find_element_by_id('kw1').send_keys('selenium selenium')#测试数据selenium zhidashso dld#selenium zhidashso dldld

   driver.find_element_by_id('su1').click()  

 

   js ='document.documentElement.scrollTop=10000'

             

   total =0 #页面数

   is_next_page =True #存在下一页

   page_num =0  #要点击的页面号

 

   #往后翻页

  whileis_next_page:#'sv_page\=1' in one_page.get_attribute('href')

       driver.execute_script(js)

       page_num = page_num +1   #设置页号为下一页

       total = page_num  #记录页面数

       value=str(page_num)      

      try:      

           #查找指定页面

           one_page = driver.find_element_by_css_selector('p[id="page"]>a[href*=pn\='+value+']')  

           one_page.click()

           time.sleep(1)

           driver.execute_script(js)

           time.sleep(1)

      except:

          print('no next page')

           is_next_page =False

           total = total -1

          break      

 

   #往前翻页

  whiletotal >=0:

       driver.execute_script(js)

      try:

           total = total -1

           value = str(total)

           one_page = driver.find_element_by_css_selector('p[id="page"]>a[href*=pn\='+value+']')

           one_page.click()

           time.sleep(1)

           driver.execute_script(js)

           time.sleep(1)

      except:

          print('no pre page')

          break;  

 

   time.sleep(3)    

   driver.quit()

 





目录
相关文章
|
Web App开发 前端开发 Java
百度搜索:蓝易云【selenium基础语法详解。】
上述是Selenium的基础语法,用于自动化Web浏览器的测试和操作。具体的用法可能因使用的编程语言和具体的应用场景而有所不同。建议您参考Selenium的官方文档或相关教程以获取更详细和准确的语法和示例代码。
280 2
|
2月前
|
数据采集 前端开发 开发者
Selenium中如何实现翻页功能
在使用Python的Selenium库进行网页爬虫开发时,翻页操作是常见需求。本文详细介绍如何通过Selenium实现翻页,包括定位翻页控件、执行翻页动作以及等待页面加载等关键步骤,并提供了基于“下一页”按钮和输入页码两种方式的具体示例代码。此外,还特别提醒开发者注意页面加载完全、动态内容加载及反爬机制等问题,确保爬虫稳定高效运行。
358 3
|
3月前
|
数据采集 Python
Selenium爬取百度热搜榜单
Selenium爬取百度热搜榜单
82 0
Selenium爬取百度热搜榜单
|
数据采集 Web App开发 存储
Java爬虫第五篇:使用selenium、Jsoup 抓取bing搜索图片
Java爬虫第五篇:使用selenium、Jsoup 抓取bing搜索图片
311 0
|
7月前
|
Web App开发 IDE 测试技术
实战练习:用airtest-selenium脚本爬取百度热搜标题
实战练习:用airtest-selenium脚本爬取百度热搜标题
157 0
|
Web App开发 Docker 容器
百度搜索:蓝易云【用docker搭建selenium grid分布式环境实践】
通过这些步骤,您可以使用Docker搭建Selenium Grid分布式环境,并在多个节点上并行运行Selenium测试。根据实际需求,您还可以进行更高级的配置和扩展,如增加更多的节点、配置浏览器版本等。
70 1
|
Docker Python Windows
Docker selenium 自动化 - 使用python操作docker,python运行、启用、停用和查询容器实例演示
Docker selenium 自动化 - 使用python操作docker,python运行、启用、停用和查询容器实例演示
1157 0
Docker selenium 自动化 - 使用python操作docker,python运行、启用、停用和查询容器实例演示
|
Web App开发 Python
Python+selenium 自动化-基本环境搭建,调用selenium库访问百度查询天气实例演示
Python+selenium 自动化-基本环境搭建,调用selenium库访问百度查询天气实例演示
169 0
Python+selenium 自动化-基本环境搭建,调用selenium库访问百度查询天气实例演示
|
JavaScript 开发工具 数据安全/隐私保护
使用.net 和Selenium模拟百度登录
使用自动化技术来模拟下百度登录
244 0
使用.net 和Selenium模拟百度登录
|
Web App开发 C# 数据安全/隐私保护
Selenium + C# 实现模拟百度贴吧签到 1
代码直通车 Github FoxCrawler项目下的SeleniumClawer解决方案 工具介绍 Selenium:是一个自动化测试工具,封装了很多WebDriver用于跟浏览器内核通讯,我用开发语言来调用它实现PhantomJS的自动化操作。
1614 0

热门文章

最新文章