【原创】微博 关键词 爬虫

简介: 【原创】微博 关键词 爬虫



本文所有教程及源码、软件仅为技术研究。不涉及计算机信息系统功能的删除、修改、增加、干扰,更不会影响计算机信息系统的正常运行。不得将代码用于非法用途,如侵立删!

记一次阿里云盾滑块验证分析并通过

操作环境

  • win10 、 mac
  • Python3.9

数据接口

  • 搜索

https://**********?containerid=100103type%3D{chanenl}%26q%3D{quote(self.words)}&page_type=searchall&page={page}

  • user info

https://**********?title=%E5%9F%BA%E6%9C%AC%E8%B5%84%E6%96%99&value={userid}'

proxy配置

==使用socks需安装 :pip install -U 'requests[socks]'==

   def_proxy(self):

       """

       调用

       :return:

       """

       # 判断IP是否过期

       new_time = datetime.datetime.now()

       ifself.expire_timeandnew_time<datetime.datetime.strptime(self.expire_time, "%Y-%m-%d %H:%M:%S"):

           # # 当前时间小于到期时间证明可用

           # if new_time < datetime.datetime.strptime(self.expire_time, "%Y-%m-%d %H:%M:%S"):

           print(f'当前使用IP:{self.proxies} 过期时间:{self.expire_time}')

           return

       proxy = Proxy()

       ip_port, expire_time = proxy.main()

       self.headers = proxy.headers

       self.proxies = {

           'http': 'socks5://{}'.format(ip_port),

           'https': 'socks5://{}'.format(ip_port)

       }

       self.expire_time = expire_time

根据关键词获取userid

   def_get_userid(self, response):

       userid = []

       content = json.loads(response)

       cards = content['data']['cards']  # 数据列表

       forcardincards:

           ifcard['card_type'] != 11:  # 状态=11返回的是用户数据列表

               continue

           forcard_groupincard['card_group']:

               userid.append(card_group['user']['id'])  # 用户id

       returnuserid

根据userid获取信息

   def_parse_json(self, res):

       content = json.loads(res)

       data = {}

       data['用户id'] = content['data']['userInfo']['id']  # userid

       data['用户名'] = content['data']['userInfo']['screen_name']  # 用户名

       # 性别

       sex = content['data']['userInfo']['gender']

       data['性别'] = '女'ifsex == 'f'else'男'

       data['微博认证名称'] = content['data']['userInfo']['verified_reason']  # 微博认证名称

       data['简介'] = content['data']['userInfo']['description']  # 简介

       data['粉丝数量'] = content['data']['userInfo']['followers_count']  # 粉丝数量

       data['发布微博量'] = content['data']['userInfo']['statuses_count']  # 发布微博量

       data['关注量'] = content['data']['userInfo']['follow_count']  # 关注量

       data['用户头像'] = content['data']['userInfo']['profile_image_url']  # 用户头像

       data['移动端地址'] = content['data']['userInfo']['profile_url']  # 移动端地址

       data['关键词'] = self.words

       returndata

数据保存

   def_save_xls(self, data):

       """

       保存数据

       data : 字典格式 必须和表头长度一样

       :return:

       """

       # 判断文件是否存在 如果存在则读取然后插入新数据,不存在则创建一个新DataFrame并添加表头

       file = f'{PATH}/数据/关键词-{self.words}.xlsx'

       Header = ['用户id', '用户名', '性别', '微博认证名称', '简介', '粉丝数量', '发布微博量', '关注量', '用户头像', '移动端地址', '关键词']

       ifnotos.path.exists(f'{PATH}/数据'):

           os.mkdir(f'{PATH}/数据')

       ifnotos.path.exists(file):

           # 创建一个新的文件 并写入表头

           df = pd.DataFrame(columns=Header)

       else:

           # 读取现有文件

           df_read = pd.read_excel(file)

           df = pd.DataFrame(df_read)

       # 定义一行新数据 data为一个字典

       new_data = pd.DataFrame(data, index=[1])  # 自定义索引为:1 ,这里也可以不设置index

       # 把定义的新数据添加到原数据最后一行 ignore_index=True,表示不按原来的索引,从0开始自动递增

       df = df.append(new_data, ignore_index=True)

       # 保存数据 sheet_name工作表名 index是否添加索引 header表头

       df.to_excel(file, sheet_name=self.words, index=False, header=True)

数据:


本文仅供学习交流使用,如侵立删!
相关文章
|
Web App开发 XML JavaScript
【原创】淘宝关键词搜索爬取与解析
【原创】淘宝关键词搜索爬取与解析
【原创】淘宝关键词搜索爬取与解析
|
存储 JSON 数据格式
【原创】抖音关键词搜索
【原创】抖音关键词搜索
【原创】抖音关键词搜索
SEO问题:为什么原创内容没有排名
SEO问题:为什么原创内容没有排名
66 0
|
文字识别 搜索推荐 机器人
搜索引擎原创内容写作建议
搜索引擎的逻辑使用了很多不同的元素,所以简单地在标题和描述中放很多词并不能保证搜索结果的顶部。如果您在网站的标题或描述中包含与您的品牌或热门话题无关的关键字,由于与网站的品牌没有关系,用户的满意度会降低,因此您可能会在质量评估中处于不利地位网站。
118 0
|
搜索推荐 SEO
怎么发帖可以让搜索引擎(百度)尽快收录?
帖子的内容需要注意的要点: 1、内容中需要带有站点的名称,并把这个站点的名称作为文字链接,连向你的主域名。如:SEO十万个为什么 。这个概念叫:Anchor Text,中文:链接锚文本
167 0
百度排名第一的文章内容写作的4个SEO技巧
制作满足百度排名第一的内容的4个技巧 如果有一件事比百度更重要,那就是你的内容与读者的关系。 (它有用吗?它们是否与他们的搜索意图相关联?) 搜索引擎优化因素:用户相关的内容。 关于用户相关性重要性的观点,反映在百度资源中,例如网站站长指南。
887 0
|
JSON 数据格式
爬取微博评论内容
网友:看看胸女:滚 网友:美胸比赛女:[图片消息] ​​​​ 继上次知乎话题 拥有一副好身材是怎样的体验? 解析了知乎回答内容之后,这次我们来解析一下微博内容,以微博网友发起的美胸大赛为例: https://m.weibo.cn/detail/4367970740108457 https://m.weibo.cn/detail/4348022520956497 这就是本次要获取的微博图片内容,共计672张很凶的照片: 下面是讲如何获取的,不感兴趣的话直接去公众号回复 套图 即可获得。
2158 0
|
数据采集 Web App开发 iOS开发
Python爬虫-爬取贴吧中每个帖子内的楼主图片
1.根据输入的关键字筛选贴吧 2.获得贴吧内的帖子,支持分页爬取 3.爬取并下载帖子内仅和楼主相关的图片
2708 0
|
数据采集 搜索推荐 数据中心
《这就是搜索引擎》爬虫部分摘抄总结
《这就是搜索引擎》这本书的第二章是关于爬虫的,干货很多(文章几乎没有废话,所以复制居多),可以参考搜索引擎是如何构建爬虫系统的。 1 通用爬虫框架 首先从互联网页面中精心选择一部分网页,以这些网页的链接地址作为种子URL,将这些种子URL放入待抓取URL队列中,爬虫从待抓取URL队列依次读取,并将URL通过DNS解析,把链接地址转换为网站服务器对应的IP地址。
1251 0
|
数据采集 JSON 数据格式
python爬虫爬取豆瓣电影
最近买了《python编程从入门到实践》,想之后写两篇文章,一篇数据可视化,一篇python web,今天这篇就当python入门吧。 一.前期准备: IDE准备:pycharm 导入的python库:requests用于请求,BeautifulSoup用于网页解析 二.
1627 0

相关课程

更多