第十四讲 while网络刷博器爬虫

简介:

1,刷阅读次数(原理)

2,如何关闭浏览器

taskkill   是在windows中杀掉应用程序的命令

使用方法 eg:cmd-----python2.6----taskkill /F /IM iexplore.ext(可执行程序名称)

eg1:

import webbrowser as web

web.open_new_tab('www.baidu.com')

eg2:

import webbrowser as web

import time

import os

i=0

while i<=5:

    web.open_new_tab('www.baidu.com')

    i=i+1

    time.sleep(0.8) -----停0.8s

else:

    os.system('taskkill /F /IM chrom.exe')-----os.system(执行系统命令)

实现的结果:每打开5次,关闭一次浏览器(释放内存)

注:while循环也可以相互嵌套

eg3:

import webbrowser as web

import time

import os

import radom

count=radom.randint(20,40)--------至少20,至多40

j=0    ----while循环开始之前有变量的初始化

while j<count:------------count次数

    i=0    ----while循环开始之前有变量的初始化

    while i<=9:

        web.open_new_tab('www.baidu.com')

        i=i+1        ------在循环体内有变量的赋值变化

        time.sleep(0.8) 

    else:    

        os.system('taskkill /F /IM chrom.exe')

        print 'close browser's times',j

    j=j+1           -----在循环体内有变量的赋值变化

此例中,while是可以相互嵌套的!


重要:

while循环次数的控制可以在循环体中,也可以在条件中

在while开始之前有变量的初始化,在循环体中有变量的赋值变化--------否则很容易造成死循环


      本文转自Tenderrain 51CTO博客,原文链接:http://blog.51cto.com/tenderrain/1620728,如需转载请自行联系原作者






相关文章
|
数据采集 JSON BI
Python爬虫网页IP被封的问题分析
如果你在爬虫过程中有遇到“您的请求太过频繁,请稍后再试”,或者说代码完全正确,可是爬虫过程中突然就访问不了,那么恭喜你,你的爬虫被对方识破了,轻则给予友好提示警告,严重的可能会对你的ip进行封禁,所以代理ip那就尤为重要了。今天我们就来谈一下代理IP,去解决爬虫被封的问题。
Python爬虫网页IP被封的问题分析
|
数据采集 Python
通过爬取豆瓣浅聊反爬策略的重要性
通过爬取豆瓣浅聊反爬策略的重要性
|
机器学习/深度学习 数据采集 C++
爬虫基础-第五天
主要是数据解析的基础部分
78 0
|
数据采集 Python
爬虫基础-第六天
在pycharm写正则,并学习re模块
71 1
|
数据采集
爬虫基础-第四天
解决第三天的问题,外加多get请求练习
70 0
|
数据采集 数据安全/隐私保护
爬虫基础-第三天
第三天虽然内容不多,不过需要大量练习,最好自己总结一波
56 0
|
数据采集 自然语言处理 前端开发
Python爬虫:网络信息爬取与处理知识梳理
Python爬虫:网络信息爬取与处理知识梳理
174 0
|
数据采集 XML JavaScript
学会这些,轻轻松松搞定爬虫
学会这些,轻轻松松搞定爬虫
|
数据采集 JSON 小程序
|
数据采集 存储 JSON
我用Python爬虫爬取并分析了C站前100用户最高访问的2000篇文章
我用Python爬虫爬取并分析了C站前100用户最高访问的2000篇文章
179 0
我用Python爬虫爬取并分析了C站前100用户最高访问的2000篇文章