Python爬虫day1.3—Python控制流

简介: 1. 三种控制流概述程序执行流程我们叫做程序的控制流,Python中有3种基本控制流:顺序结构条件分支结构循环结构2. if 语句if 语句是一种条件分支结构语句a = 10b = 1if (a > 9) : pr...

1. 三种控制流概述

程序执行流程我们叫做程序的控制流,Python中有3种基本控制流:

  1. 顺序结构
  2. 条件分支结构
  3. 循环结构

2. if 语句

if 语句是一种条件分支结构语句

a = 10
b = 1
if (a > 9) :
    print(a)
    if (b<9):
        print(b)
elif (a > 10 and a <= 20) :
    print("a > 10 and a <= 20")
elif (a < 9):
    print("a<9")
else:
    print("结束")

3. while 语句

while 语句是一种循环结构的语句

a = 0
while(a < 10):
    print("hello,python!")
    a += 1  # a += 1 即 a = a+1
img_5d223bc2ef959170cecba20e69d7f344.png
上述代码运行结果

4. for 语句

for 语句也是一种循环结构的语句

# for:遍历列表
a = ["aa","bb","c","dd","e"]
for i in a:             # i 是一个新的变量
    print(i)
img_18e753a384e75d3b08549cd5105a05f7.png
上述代码运行结果
#for:进行常规循环
#for i in range(0,10)
for i in range(0,10):
    print(i)
img_a7aff88d40a366d415c9712974ccad45.png
上述代码运行结果

5. 中断结构

所谓中断结构,指的是中途退出的一种结构。常有break语句与continue语句

#break、continue
#break : 全部退出,整个循环都中断
#continue : 中断一次循环
a = ["a","bb","cc","d"]
for i in a:
    if(i == "cc"):
        break
    print(i)
img_b90eb66b60ef76392d2959a19eb177ef.png
上述代码运行结果
#break、continue
#break : 全部退出,整个循环都中断
#continue : 中断一次循环,继续下一次循环
a = ["a","bb","cc","d"]
for i in a:
    if(i == "cc"):
        #break
        continue
    print(i)
img_da97da84531cfcbeb2495ef5150234c1.png
上述代码运行结果

6. 输出乘法口诀

先来一张乘法口诀表:

img_400f9ad1315e79d790bfe3a3c3a6396b.png
九九乘法口诀表

#乘法口诀表
for i in range(1,10):
    for j in range(1,i+1):
        print(str(i)+"*"+str(j)+"="+ str(i*j),end = " ")  # end="" 代表不换行输出 
    print()
img_020e7bdfd0006b30f86b6a6932002fbe.png
上述代码运行结果
目录
相关文章
|
26天前
|
数据采集 存储 开发者
如何动态调整Python爬虫的Request请求延迟
如何动态调整Python爬虫的Request请求延迟
|
23天前
|
数据采集 NoSQL 关系型数据库
Python爬虫去重策略:增量爬取与历史数据比对
Python爬虫去重策略:增量爬取与历史数据比对
|
1月前
|
数据采集 测试技术 C++
无headers爬虫 vs 带headers爬虫:Python性能对比
无headers爬虫 vs 带headers爬虫:Python性能对比
|
9天前
|
数据采集 Web App开发 前端开发
Python爬虫中time.sleep()与动态加载的配合使用
Python爬虫中time.sleep()与动态加载的配合使用
|
10天前
|
数据采集 存储 NoSQL
分布式爬虫去重:Python + Redis实现高效URL去重
分布式爬虫去重:Python + Redis实现高效URL去重
|
1月前
|
数据采集 存储 监控
Python 原生爬虫教程:网络爬虫的基本概念和认知
网络爬虫是一种自动抓取互联网信息的程序,广泛应用于搜索引擎、数据采集、新闻聚合和价格监控等领域。其工作流程包括 URL 调度、HTTP 请求、页面下载、解析、数据存储及新 URL 发现。Python 因其丰富的库(如 requests、BeautifulSoup、Scrapy)和简洁语法成为爬虫开发的首选语言。然而,在使用爬虫时需注意法律与道德问题,例如遵守 robots.txt 规则、控制请求频率以及合法使用数据,以确保爬虫技术健康有序发展。
202 31
|
26天前
|
数据采集 存储 缓存
Python爬虫与代理IP:高效抓取数据的实战指南
在数据驱动的时代,网络爬虫是获取信息的重要工具。本文详解如何用Python结合代理IP抓取数据:从基础概念(爬虫原理与代理作用)到环境搭建(核心库与代理选择),再到实战步骤(单线程、多线程及Scrapy框架应用)。同时探讨反爬策略、数据处理与存储,并强调伦理与法律边界。最后分享性能优化技巧,助您高效抓取公开数据,实现技术与伦理的平衡。
69 4
|
25天前
|
数据采集 Web App开发 iOS开发
Python 爬虫如何伪装 Referer?从随机生成到动态匹配
Python 爬虫如何伪装 Referer?从随机生成到动态匹配
|
1月前
|
数据采集 Web App开发 文字识别
Python爬虫多次请求后被要求验证码的应对策略
Python爬虫多次请求后被要求验证码的应对策略
|
1月前
|
数据采集 搜索推荐 API
Python 原生爬虫教程:京东商品列表页面数据API
京东商品列表API是电商大数据分析的重要工具,支持开发者、商家和研究人员获取京东平台商品数据。通过关键词搜索、分类筛选、价格区间等条件,可返回多维度商品信息(如名称、价格、销量等),适用于市场调研与推荐系统开发。本文介绍其功能并提供Python请求示例。接口采用HTTP GET/POST方式,支持分页、排序等功能,满足多样化数据需求。