Python爬虫系列8-抓取快乐8、刮刮乐、双色球等中奖数据分析规律

简介: 人在绝大多数情况下,只要稍微有那么一点的退路,有那么一点余地,就可以成为逃避的借口和理由。努力装装样子,然后给自己一个台阶下,安慰自己说,“你看我已经很努力了,还是不行,那就算了吧”。老话说得好:只有主动追求的东西才能到手;只要你想做,全世界都会帮你;只要你不想做,一只蚊子都能拦住你。虽说未来可期,但如果你连相信自己的勇气都没有,还有什么资格得到更好的呢。对吧!

-实战

这几天看到身边的朋友在玩儿股票;顺便查了查彩票的官网及操作步骤;看到那些以往的中奖号码; 脑海中突然有个新的想法;如果我把中奖的号码全部都抓取下来;在通过数据分析进行可视化;分析那些出现频率高的中奖数字。会不会有奇效呢!想的再多 不如尝试一下。

目标网站

image.png

快乐8 彩球数据

这些都是中奖的号码;大家可以登录该网站查看。
image.png

双色球 数据

image.png

大乐透 数据

image.png

我们发现这个网站每张彩票的流程,基本上都差不多。通过 Chrome 浏览器右键检查查看 network 并对网站结构进行分析;大致上浏览了一下;数据的布局方式也一样,那就...... 挑兵挑将~ 随便挑一个😁

爬虫三部曲这里就不过多描述了; 不知道的同学可以看我之前写的文章。
为了使代码更加方便大家阅读 我将其业务逻辑用简单的函数封装起来,分为2步;看代码。。。

# 第一步:抓取中彩网数据
def requests_data():
   pass
# 第二步: 处理数据 并存储
def save_data(tony_dict):
  pass

if __name__ == '__main__':
  tony_dict=requests_data()
  save_data(tony_dict)

这样看起来是不是就简单明了。 不管三七二十一;首先我们先把数据给抓取下来 ~看法宝😎

import requests

# 第一步:抓取中彩网数据
def requests_data(index):
  cookies = {
        'Hm_lvt_12e4883fd1649d006e3ae22a39f97330': '1606980',
        '_ga': 'GA1.2.1535259899.1606980613',
        'PHPSESSID': 'ko9acne5fc09ag34tauema9dk5',
        'Hm_lvt_692bd5f9c07d3ebd0063062fb0d7622f': '1606980',
        'Hm_lpvt_692bd5f9c07d3ebd0063062fb0d7622f': '1606980',
        '_gid': 'GA1.2.702530936.16077449',
        'Hm_lpvt_12e4883fd1649d006e3ae22a39f97330': '1607745',
    }

    headers = {
        'Connection': 'keep-alive',
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.117 Safari/537.36',
        'Accept': '*/*',
        'Sec-Fetch-Site': 'same-site',
        'Sec-Fetch-Mode': 'no-cors',
        'Referer': 'https://www.zhcw.com/kjxx/3d/',
        'Accept-Encoding': 'gzip, deflate, br',
        'Accept-Language': 'zh-CN,zh;q=0.9',
    }

    params = (
        ('callback', 'jQuery1122035713028555611515_1607745050216'),
        ('transactionType', '10001001'),
        ('lotteryId', '2'),
        ('issueCount', '100'),
        ('startIssue', ''),
        ('endIssue', ''),
        ('startDate', ''),
        ('endDate', ''),
        ('type', '0'),
        ('pageNum', index),
        ('pageSize', '30'),
        ('tt', '0.7235300526774737'),
        ('_', '1607745050225'),
    )
    # 获取服务器返回数据 
    response = requests.get('https://jc.zhcw.com/port/client_json.php', headers=headers, params=params, cookies=cookies).content.decode('utf-8')
    print(response)
   
if __name__ == '__main__':
    for index in range(1, 10):
        tony_dict=requests_data(index)
        save_data(tony_dict)

image.png

运行程序的时候;就能够获取返回的数据内容了 ! 接下来就到了爬虫中最关键的一步;数据解析~ 首先先把需要的内容提取出来,这里埋一个小坑,大家尝试着试一下如何提取这个元素😁动动手~
我们在提取数据的时候也需要考虑这个数据应该通过什么样的存储方式进行保存。 这里我用的是 excel表格。

import xlwt

wb = xlwt.Workbook()
sheet= wb.add_sheet('福彩3D')

# 存储表头文件
row=["期号","开奖日期","开奖号码","总销售额(元)","直选(注数)","直选(单注奖金(元))",'组三(注数)','组三(单注奖金(元)','组六(注数)','组六(单注奖金(元)']

# 写入表头
for i in range(0,len(row)):
    sheet.write(0,i,row[i])

# 保存
wb.save("福彩3D_版本2.xls")

image.png

当表头数据存储至excel之后 ;准备工作就已经OK了 ;接下来可以放心的做数据解析了 ;只需要将解析的数据添加到excel表格中就可以了。

i=1
# 第二步: 处理数据 并 存储
def save_data(tony_dict):
    global i
    for item in tony_dict:
        sheet.write(i, 0, item['issue'])
        sheet.write(i, 1, item['openTime'])
        sheet.write(i, 2, item['frontWinningNum'])
        sheet.write(i, 3, item['saleMoney'])
        wd=item['winnerDetails']
        print(wd)
i+=1

image.png

这样就把获取到的4个数据添加到excel表格了;后续其他的数据按照这种方式依次添加就行。大家可以锻炼一下!
image.png

如果本文对你学习有所帮助-可以点赞👍+ 关注!将持续更新更多新的文章。

支持原创。感谢!

相关文章
|
2月前
|
数据采集 数据可视化 数据挖掘
Python数据分析实战:Pandas处理结构化数据的核心技巧
在数据驱动时代,结构化数据是分析决策的基础。Python的Pandas库凭借其高效的数据结构和丰富的功能,成为处理结构化数据的利器。本文通过真实场景和代码示例,讲解Pandas的核心操作,包括数据加载、清洗、转换、分析与性能优化,帮助你从数据中提取有价值的洞察,提升数据处理效率。
153 3
|
3月前
|
数据采集 存储 前端开发
动态渲染爬虫:Selenium抓取京东关键字搜索结果
动态渲染爬虫:Selenium抓取京东关键字搜索结果
|
3月前
|
数据采集 存储 前端开发
Java爬虫性能优化:多线程抓取JSP动态数据实践
Java爬虫性能优化:多线程抓取JSP动态数据实践
|
20天前
|
数据可视化 大数据 关系型数据库
基于python大数据技术的医疗数据分析与研究
在数字化时代,医疗数据呈爆炸式增长,涵盖患者信息、检查指标、生活方式等。大数据技术助力疾病预测、资源优化与智慧医疗发展,结合Python、MySQL与B/S架构,推动医疗系统高效实现。
|
4月前
|
数据采集 数据可视化 搜索推荐
Python数据分析全流程指南:从数据采集到可视化呈现的实战解析
在数字化转型中,数据分析成为企业决策核心,而Python凭借其强大生态和简洁语法成为首选工具。本文通过实战案例详解数据分析全流程,涵盖数据采集、清洗、探索、建模、可视化及自动化部署,帮助读者掌握从数据到业务价值的完整技能链。
531 0
|
2月前
|
数据可视化 数据挖掘 大数据
基于python大数据的水文数据分析可视化系统
本研究针对水文数据分析中的整合难、分析单一和可视化不足等问题,提出构建基于Python的水文数据分析可视化系统。通过整合多源数据,结合大数据、云计算与人工智能技术,实现水文数据的高效处理、深度挖掘与直观展示,为水资源管理、防洪减灾和生态保护提供科学决策支持,具有重要的应用价值和社会意义。
|
3月前
|
存储 数据挖掘 大数据
基于python大数据的用户行为数据分析系统
本系统基于Python大数据技术,深入研究用户行为数据分析,结合Pandas、NumPy等工具提升数据处理效率,利用B/S架构与MySQL数据库实现高效存储与访问。研究涵盖技术背景、学术与商业意义、国内外研究现状及PyCharm、Python语言等关键技术,助力企业精准营销与产品优化,具有广泛的应用前景与社会价值。
|
3月前
|
数据采集 存储 JSON
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
|
6月前
|
数据采集 Web App开发 JavaScript
基于Selenium的Python爬虫抓取动态App图片
基于Selenium的Python爬虫抓取动态App图片
432 68
|
3月前
|
数据采集 存储 XML
Python爬虫XPath实战:电商商品ID的精准抓取策略
Python爬虫XPath实战:电商商品ID的精准抓取策略

推荐镜像

更多