【原创】微博 关键词 爬虫

简介: 【原创】微博 关键词 爬虫



本文所有教程及源码、软件仅为技术研究。不涉及计算机信息系统功能的删除、修改、增加、干扰,更不会影响计算机信息系统的正常运行。不得将代码用于非法用途,如侵立删!

记一次阿里云盾滑块验证分析并通过

操作环境

  • win10 、 mac
  • Python3.9

数据接口

  • 搜索

https://**********?containerid=100103type%3D{chanenl}%26q%3D{quote(self.words)}&page_type=searchall&page={page}

  • user info

https://**********?title=%E5%9F%BA%E6%9C%AC%E8%B5%84%E6%96%99&value={userid}'

proxy配置

==使用socks需安装 :pip install -U 'requests[socks]'==

   def_proxy(self):

       """

       调用

       :return:

       """

       # 判断IP是否过期

       new_time = datetime.datetime.now()

       ifself.expire_timeandnew_time<datetime.datetime.strptime(self.expire_time, "%Y-%m-%d %H:%M:%S"):

           # # 当前时间小于到期时间证明可用

           # if new_time < datetime.datetime.strptime(self.expire_time, "%Y-%m-%d %H:%M:%S"):

           print(f'当前使用IP:{self.proxies} 过期时间:{self.expire_time}')

           return

       proxy = Proxy()

       ip_port, expire_time = proxy.main()

       self.headers = proxy.headers

       self.proxies = {

           'http': 'socks5://{}'.format(ip_port),

           'https': 'socks5://{}'.format(ip_port)

       }

       self.expire_time = expire_time

根据关键词获取userid

   def_get_userid(self, response):

       userid = []

       content = json.loads(response)

       cards = content['data']['cards']  # 数据列表

       forcardincards:

           ifcard['card_type'] != 11:  # 状态=11返回的是用户数据列表

               continue

           forcard_groupincard['card_group']:

               userid.append(card_group['user']['id'])  # 用户id

       returnuserid

根据userid获取信息

   def_parse_json(self, res):

       content = json.loads(res)

       data = {}

       data['用户id'] = content['data']['userInfo']['id']  # userid

       data['用户名'] = content['data']['userInfo']['screen_name']  # 用户名

       # 性别

       sex = content['data']['userInfo']['gender']

       data['性别'] = '女'ifsex == 'f'else'男'

       data['微博认证名称'] = content['data']['userInfo']['verified_reason']  # 微博认证名称

       data['简介'] = content['data']['userInfo']['description']  # 简介

       data['粉丝数量'] = content['data']['userInfo']['followers_count']  # 粉丝数量

       data['发布微博量'] = content['data']['userInfo']['statuses_count']  # 发布微博量

       data['关注量'] = content['data']['userInfo']['follow_count']  # 关注量

       data['用户头像'] = content['data']['userInfo']['profile_image_url']  # 用户头像

       data['移动端地址'] = content['data']['userInfo']['profile_url']  # 移动端地址

       data['关键词'] = self.words

       returndata

数据保存

   def_save_xls(self, data):

       """

       保存数据

       data : 字典格式 必须和表头长度一样

       :return:

       """

       # 判断文件是否存在 如果存在则读取然后插入新数据,不存在则创建一个新DataFrame并添加表头

       file = f'{PATH}/数据/关键词-{self.words}.xlsx'

       Header = ['用户id', '用户名', '性别', '微博认证名称', '简介', '粉丝数量', '发布微博量', '关注量', '用户头像', '移动端地址', '关键词']

       ifnotos.path.exists(f'{PATH}/数据'):

           os.mkdir(f'{PATH}/数据')

       ifnotos.path.exists(file):

           # 创建一个新的文件 并写入表头

           df = pd.DataFrame(columns=Header)

       else:

           # 读取现有文件

           df_read = pd.read_excel(file)

           df = pd.DataFrame(df_read)

       # 定义一行新数据 data为一个字典

       new_data = pd.DataFrame(data, index=[1])  # 自定义索引为:1 ,这里也可以不设置index

       # 把定义的新数据添加到原数据最后一行 ignore_index=True,表示不按原来的索引,从0开始自动递增

       df = df.append(new_data, ignore_index=True)

       # 保存数据 sheet_name工作表名 index是否添加索引 header表头

       df.to_excel(file, sheet_name=self.words, index=False, header=True)

数据:


本文仅供学习交流使用,如侵立删!
相关文章
|
2月前
|
数据采集 数据挖掘 Python
微博热搜的爬虫实现
微博热搜的爬虫实现
77 2
|
2月前
|
数据采集 Python
微博爬虫程序的定时
微博爬虫程序的定时
28 1
|
3月前
|
数据采集 存储 自然语言处理
基于网络爬虫的微博热点分析,包括文本分析和主题分析
本文介绍了一个基于Python网络爬虫的微博热点分析系统,使用requests和pandas等库收集和处理数据,结合jieba分词、LDA主题分析和snownlp情感分析技术,对微博文本进行深入分析,并利用matplotlib进行数据可视化,以洞察微博用户的关注点和情感倾向。
179 0
基于网络爬虫的微博热点分析,包括文本分析和主题分析
|
数据采集 API 数据安全/隐私保护
利用RoboBrowser库和爬虫代理实现微博视频的爬取
微博是一个社交媒体平台,用户可以在上面发布和分享各种内容,包括文字、图片、音频和视频。微博视频是微博上的一种重要的内容形式,有时我们可能想要下载微博视频到本地,以便于观看或分析。但是,微博视频并没有提供直接的下载链接,而是通过一些加密和混淆的方式,将视频嵌入到网页中。因此,如果我们想要爬取微博视频,就需要使用一些特殊的技术和工具。
218 0
利用RoboBrowser库和爬虫代理实现微博视频的爬取
|
数据采集 数据可视化 数据挖掘
数据挖掘微博:爬虫技术揭示热门话题的趋势
微博是中国最大的社交媒体平台之一,每天有数亿用户在上面发表自己的观点、分享自己的生活、参与各种话题。微博上的热门话题反映了用户的关注点和社会的动态,对于分析舆情、预测市场、探索文化等方面都有重要的价值。本文将介绍如何使用爬虫技术从微博上抓取热门话题的数据,并通过可视化的方式展示热门话题的变化趋势。
277 0
数据挖掘微博:爬虫技术揭示热门话题的趋势
|
数据采集 监控 安全
|
JSON JavaScript Java
Java爬虫——微博热搜
前言 自从写完关于Lifecycle的文章后就没有发现其他有兴趣的源码了,所以呢,我决定看看写写后台代码,尝试一波。经过大概一周的百度,SSM框架基本搭建完成。
2694 0
|
Web App开发 数据采集 Python
Python爬虫之微博好友圈
数学建模已结束,刚开始的目标就是不熬夜,结果还是熬夜了(QAQ),缓了一天就来写简书了,感觉很久没爬虫了,今天就爬下移动端的微博好友圈信息。 代码 import requests import json headers = { 'Cookie':'xxxxxxxx', 'User_Agent':'Mozilla/5.
1367 0
|
数据采集 Python
python爬虫之微博评论爬取
最近喜欢看《火星情报局》,搞笑中也不缺内涵。记得2016年的最后一期,里面说到,年终总结只需一个字,而沈梦辰给自己的是一个黑字,2016的她如此招黑,那今天我爬取她2017年的一篇微博评论,看看2017有什么变化呢? 提交Cookie信息模拟微博登录 ...
1306 0
|
20天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
63 6