查询数据,保存到CSV文件的Python代码

简介:   #读取文本文档,生成数组,将数组元素逐一传给获取数据的函数,然后写入CSV文件。可以先运行win(),再运行mian()  import requests  from lxml import etree  from selenium import webdriver  from selenium.webdriver.common.by import By  import time

  #读取文本文档,生成数组,将数组元素逐一传给获取数据的函数,然后写入CSV文件。可以先运行win(),再运行mian()

  import requests

  from lxml import etree

  from selenium import webdriver

  from selenium.webdriver.common.by import By

  import time

  import openpyxl

  from selenium.webdriver.common.action_chains import ActionChains

  headers={

  'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',

  }

  driver=webdriver.Chrome(r'D:\Python\chromedriver.exe')

  driver.get("https://datasearch.chinanpo.gov.cn/gsxt/newList")

  url=driver.current_url

  #切换到当前窗口

  def win():

  handles=driver.window_handles

  driver.switch_to.window(handles[0])

  #读取文本文档并生成数组

  def text():

  txt=open('test.txt')

  txt=txt.read()

  txt=txt.split('

  ')

  #print(txt)

  return txt

  #将二维数组保存到csv文件

  def writetocsv(datalist):

  with open('cpi20210614.csv','a') as f:

  print('saving.....')

  for row in datalist:

  f.write(",".join(row)+"

  ")

  print('saving OK')

  return True

  #获取数据

  def getdata(name):

  datalist=[]

  i=driver.find_element_by_xpath('//input[@class="search_input ant-input"]')

  i.clear()

  i.send_keys(name)

  time.sleep(1)

  driver.find_element_by_xpath('//span[@class="search_button"]').click()

  time.sleep(2)

  res=driver.find_element_by_xpath('//div[@class="search_title"]').text

  print(res)

  data=[]

  data.append(name)

  data.append(res)

  datalist.append(data)

  return datalist

  #保存到CSV的方法

  def mian():

  txt=text()

  while len(txt)!=0:

  time.sleep(2)

  name=txt[0]

  try:

  datelist=getdata(name)

  s=writetocsv(datelist)

  if s:

  print(name+"完成")

  txt.pop(0)

  else:

  pass

  except:

  print(name,end='')

  print('稍等再试')

  time.sleep(2)

  driver.refresh()

  time.sleep(2)

  读取卖二手文本文档,生成数组,将数组元素逐一传给获取数据的函数,然后写入CSV文件。可以先运行win(),再运行mian()

目录
相关文章
|
10天前
|
数据采集 Web App开发 数据可视化
Python零基础爬取东方财富网股票行情数据指南
东方财富网数据稳定、反爬宽松,适合爬虫入门。本文详解使用Python抓取股票行情数据,涵盖请求发送、HTML解析、动态加载处理、代理IP切换及数据可视化,助你快速掌握金融数据爬取技能。
204 1
|
11天前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
194 0
|
13天前
|
测试技术 Python
Python装饰器:为你的代码施展“魔法”
Python装饰器:为你的代码施展“魔法”
196 100
|
13天前
|
开发者 Python
Python列表推导式:一行代码的艺术与力量
Python列表推导式:一行代码的艺术与力量
228 95
|
21天前
|
Python
Python的简洁之道:5个让代码更优雅的技巧
Python的简洁之道:5个让代码更优雅的技巧
177 104
|
21天前
|
开发者 Python
Python神技:用列表推导式让你的代码更优雅
Python神技:用列表推导式让你的代码更优雅
308 99
|
13天前
|
缓存 Python
Python装饰器:为你的代码施展“魔法
Python装饰器:为你的代码施展“魔法
130 88
|
12天前
|
JSON API 数据安全/隐私保护
Python采集淘宝拍立淘按图搜索API接口及JSON数据返回全流程指南
通过以上流程,可实现淘宝拍立淘按图搜索的完整调用链路,并获取结构化的JSON商品数据,支撑电商比价、智能推荐等业务场景。
|
19天前
|
监控 机器人 编译器
如何将python代码打包成exe文件---PyInstaller打包之神
PyInstaller可将Python程序打包为独立可执行文件,无需用户安装Python环境。它自动分析代码依赖,整合解释器、库及资源,支持一键生成exe,方便分发。使用pip安装后,通过简单命令即可完成打包,适合各类项目部署。
|
20天前
|
数据采集 关系型数据库 MySQL
python爬取数据存入数据库
Python爬虫结合Scrapy与SQLAlchemy,实现高效数据采集并存入MySQL/PostgreSQL/SQLite。通过ORM映射、连接池优化与批量提交,支持百万级数据高速写入,具备良好的可扩展性与稳定性。

推荐镜像

更多