在.NET外散步之我爱贪吃蛇Python -常见数据结构(新浪和百度云平台即将推出Python免费空间)

简介: 新浪的http://cloudbbs.org/forum.php?mod=viewthread&tid=2762&extra=page%3D1 百度的http://tieba.baidu.
   新浪的http://cloudbbs.org/forum.php?mod=viewthread&tid=2762&extra=page%3D1
   百度的http://tieba.baidu.com/p/1605220585
Python常见的数据类型有以下这么几种
   Sequence Types — str, unicode, list, tuple, bytearray, buffer, xrange) !!!!
   刚开始接触时,总是在类比这个数据结构是c#里面的什么呢或者向c#里面的什么呢,左边折腾一下右边折腾一下,发现Python的数据结构和c#里面的数据结构没有什么相似的地方,
想借鉴一下c#的概念理解一下也不行,Python里面竟然连数组这个概念都没有,是在令人非常费解,开始还以为没有找到数组,后来发现结构体也没有,偷鸡不成。。。。

序列

   Python里面最基础的数据结构为序列,序列主要有两个常用操作就是索引操作和切边操作,非常灵活,列表、元组、字符串都是序列

索引操作和切边操作都按照下面这个编号进行

 +---+---+---+---+---+
 | H | e | l | p | A |
 +---+---+---+---+---+
 0   1   2   3   4   5
-5  -4  -3  -2  -1
 
 
 
# -*- coding: utf8 -*-
 
if __name__ == '__main__':
    shoplist3=["a","b","c","d","e",1,2,3,4,5,6,7]
    #序列相关
    print(shoplist3)
    print(len( shoplist3))
    
    #按照索引操作
    print(shoplist3[3])
    shoplist3[3]="dddddddddddddddddddddddd"
    print(shoplist3[3])
    
    #按照切片操作
    print(shoplist3[:])
    print(shoplist3[1:3])
    print(shoplist3[:-1])
    print(shoplist3[-3:-1])
    print(shoplist3[2:-1])
    print(shoplist3[3][0])
    
    #字符串作为序列操作
    print("=====================")
    helpa="helpa"
    print(helpa[1:3])
    print(helpa[-4:-2])
    print("=====================")
    
    #序列作为栈
    shoplist3.append("xxxxxxxxxx")
    print(shoplist3)
    shoplist3.pop()
    print(shoplist3)
    
    print("=====================")    
    #序列作为队列
    from collections import deque
    queue = deque(["Eric", "John", "Michael"])
    #deque 表示费解改个名字就不对了
    queue.append("Terry")
    queue.append("Graham")
    print(queue)
    queue.popleft()
    print(queue)
    
 

序列本身可以作为栈来操作,还可以转化为队列进行操作

元组

      开始觉得Python没有常量这个概念太离谱了,遇到元组,发现元组就是天生的常量类型,元组是也属于序列,支持索引和切片

    zoo=("aaaaaaaaaaaaaaaaaaaaaaaaaaaaa","b","c","d",1,2,3,4)
    print(zoo)
    print(len(zoo))
    print(zoo[4])
    #zoo[4]=100000   
    #果然是不可以改变值 也不可以改变大小,
    #可用来模拟 常量 
    print(zoo[0])
    print(zoo[0][4])

Sets

   Sets 也是Python的一种数据类型而且支持一些运算

     a = set('abracadabra')
    print(a)
    print("a" in a)
    b = set('alacazam')
    
    print(a - b )
    # letters in a but not in b
    print(a | b )
    # letters in either a or b
    print(a & b )
    # letters in both a and b
    print(a  ^ b )
    # letters in a or b but not both

 

 

字典

Python中和c# 中最相似的就是字典这个概念操作也差不多

#字典
    hashtable={
               "a":"aaaaaaaaaaaaaaaaaaa",
               "b":"bbbbbbbbbbbbbbbbbbbb",
               "c":"ccccccccccccccccccccc",
               "d":"dddddddddddddddddddddd",
               1:2,
               "e":"eeeeeeeeeeeeeeeeeeeeeeeeee"
               
               }
    print(hashtable)
    hashtable["f"]="fffffffffffffffffffffffffffffff"
    print(hashtable)
    #不支持通过坐标访问 只支持通过key来访问
    #print(hashtable[0])
    print(hashtable["a"])  
    for key, value in hashtable.items():
        print(key)
        print(value)
    #help(hashtable)

另外还有一个声称序列的方法range 可以生成指定范围内的序列

 print("===========================")
    print(range(10))#范围0~9
    print(range(3,13))#范围3~12 range([start], stop[, step])
    print(range(0,30,5))#步长5
    print(range(0,10,3))#步长5
    print("===========================") 
    #print(xrange(0,10)) Y的怎么没反应呢?????
    print(u"汉字汉字汉字汉字汉字汉字汉字汉字汉字汉字汉字汉字")
test
相关文章
|
6天前
|
数据采集 Python
如何用Python Selenium和WebDriver抓取LinkedIn数据并保存登录状态
本文介绍了使用Python Selenium和WebDriver库抓取LinkedIn数据的方法。首先,安装Selenium库和对应的WebDriver,然后配置爬虫代理IP以避免频繁请求被检测。接下来,设置user-agent和cookies以模拟真实用户行为,实现登录并保持状态。登录后,使用WebDriver抓取目标页面数据,如用户名、年龄、性别和简历信息。最后,强调了优化代码、处理异常和遵守使用条款的重要性,以提高效率并避免账号被封禁。
如何用Python Selenium和WebDriver抓取LinkedIn数据并保存登录状态
|
8天前
|
机器学习/深度学习 数据可视化 数据挖掘
Python处理数据的优势?
Python处理数据的优势?【8月更文挑战第12天】
24 6
|
3天前
|
机器学习/深度学习 JSON API
【Python奇迹】FastAPI框架大显神通:一键部署机器学习模型,让数据预测飞跃至Web舞台,震撼开启智能服务新纪元!
【8月更文挑战第16天】在数据驱动的时代,高效部署机器学习模型至关重要。FastAPI凭借其高性能与灵活性,成为搭建模型API的理想选择。本文详述了从环境准备、模型训练到使用FastAPI部署的全过程。首先,确保安装了Python及相关库(fastapi、uvicorn、scikit-learn)。接着,以线性回归为例,构建了一个预测房价的模型。通过定义FastAPI端点,实现了基于房屋大小预测价格的功能,并介绍了如何运行服务器及测试API。最终,用户可通过HTTP请求获取预测结果,极大地提升了模型的实用性和集成性。
13 1
|
4天前
|
数据采集 数据可视化 算法
GitHub星标68K!Python数据分析入门手册带你从数据获取到可视化
Python作为一门优秀的编程语言,近年来受到很多编程爱好者的青睐。一是因为Python本身具有简捷优美、易学易用的特点;二是由于互联网的飞速发展,我们正迎来大数据的时代,而Python 无论是在数据的采集与处理方面,还是在数据分析与可视化方面都有独特的优势。我们可以利用 Python 便捷地开展与数据相关的项目,以很低的学习成本快速完成项目的研究。
|
4天前
|
数据采集 Java PHP
使用Python+requests简单实现模拟登录以及抓取接口数据
本文通过Python的requests库演示了如何实现模拟登录和抓取接口数据的过程,包括设置请求头、发送POST请求进行登录以及使用登录后的会话进行GET请求获取数据。
15 1
|
6天前
|
编解码 算法 Linux
Linux平台下RTSP|RTMP播放器如何跟python交互投递RGB数据供视觉算法分析
在对接Linux平台的RTSP播放模块时,需将播放数据同时提供给Python进行视觉算法分析。技术实现上,可在播放时通过回调函数获取视频帧数据,并以RGB32格式输出。利用`SetVideoFrameCallBackV2`接口设定缩放后的视频帧回调,以满足算法所需的分辨率。回调函数中,每收到一帧数据即保存为bitmap文件。Python端只需读取指定文件夹中的bitmap文件,即可进行视频数据的分析处理。此方案简单有效,但应注意控制输出的bitmap文件数量以避免内存占用过高。
|
5天前
|
数据采集 数据可视化 算法
GitHub星标68K!Python数据分析入门手册带你从数据获取到可视化
Python作为一门优秀的编程语言,近年来受到很多编程爱好者的青睐。一是因为Python本身具有简捷优美、易学易用的特点;二是由于互联网的飞速发展,我们正迎来大数据的时代,而Python 无论是在数据的采集与处理方面,还是在数据分析与可视化方面都有独特的优势。我们可以利用 Python 便捷地开展与数据相关的项目,以很低的学习成本快速完成项目的研究。 今天给小伙伴们分享的这份Python数据分析入门手册本着实用性的目的,着眼于整个数据分析的流程,介绍了从数据采集到可视化的大致流程。
|
6天前
|
数据采集 数据挖掘 数据处理
Python爬虫开发:爬取简单的网页数据
本文详细介绍了如何使用Python爬取简单的网页数据,以掘金为例,展示了从发送HTTP请求、解析HTML文档到提取和保存数据的完整过程。通过这个示例,你可以掌握基本的网页爬取技巧,为后续的数据分析打下基础。希望本文对你有所帮助。
|
7天前
|
数据可视化 Python
我是如何把python获取到的数据写入Excel的?
我是如何把python获取到的数据写入Excel的?
21 2
|
7天前
|
数据采集 数据挖掘 数据处理
Python爬虫开发:爬取简单的网页数据
在数据分析中,数据的获取是第一步。随着互联网的普及,网络爬虫成为获取数据的重要手段。本文将详细介绍如何使用Python爬取简单的网页数据。