Python3,实用技巧之:批量处理数据、本地集成命令、查看服务器日志

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: Python3,实用技巧之:批量处理数据、本地集成命令、查看服务器日志

1 引言


2021年开年第一篇,我们来聊聊Python的实用小技巧。

学会这几个小技巧,提升的不仅仅是你的工作效率,还有…


2 批量处理数据


在执行测试过程中,最繁琐的一件事就是造数据,当涉及到并发情况,造的数据,可能会让测开的人员有那么一种冲动…

那么,有没有什么方法,可以愉快的 造出大量的数据呢?


今天,就先来整一个,如何瞬间注册完成1000个账号的。


我们都知道,常用造数据的方法有两种:

①手动造数据

②自动造数据


手动造数据

我相信,这是大部分功能测试的人员,都经历过的事情

・打开文本文件,

・造出一条数据

・Ctrl +C , Ctrl +V


想想, 就…

为了能有更多的时间约妹子,

小鱼还是建议考虑考虑用 代码来实现这件事情


自动造数据

如何实现?话多不多,我们直接上代码。


# -*- coding: utf-8 -*-
"""
@ auth : carl_DJ
@ time : 2021-01-01
"""
'''
使用request方法发送注册请求完成1000个用户注册
'''
import requests
#定义一个全局变量 username作为初始化账号
username = 13352256666
#定义一个全局变量 password作为统一账户密码
password = "888888"
#定义注册函数
def register():
  #引用全局变量 username and password
  global username
  global password
  #注册地址
  url = "http://xxxx.com/register"
  form_data = {"usernam":username,"password":password}
  r = requests.post{url,data = form_data}
  #每次完成注册,将手机号+1
  username = username + 1
if __name__ = "__main__":
  #完成1000次的注册
  for i in range(0,1000):
  register()

小屌丝:小鱼,你这会不会出现 手机号重复的问题?

小鱼:嗯,你的问题非常好,这里把username设置成全局变量,

每次注册完成,都要username+1,即便在函数内执行+1,也会改变全局变量的值,然后下一次执行的时候再引用+1之后的手机号,这就解决了手机号重复的问题。

小屌丝:嗯,不亏是老鱼啊 ~~

小鱼: = =!


我们接着往下看,看看还有什么更实惠的小技巧…


3 本地集成命令


Python可以集成命令行,就好比我们熟悉的Windows的bat批处理以及Linux的sh脚本。

如果,不信的话,可以看小鱼的这三篇博文:

《python3把服务器备份mysql数据库下载到本地》

《启动appium服务的2种方法》

《adb常用命令总结及.bat文件封装》


小屌丝:小鱼,你能不能在这里在总结一下,我不想跳页看。

小鱼: = =! 唉 ~


这里用到的方法,很简单,就是 os模块,一行代码就搞定。

这里我们就以启动Jenkis为例


import os
#使用system()输入启动Jenkins的命令
os.system("java -jar E: /jenkins.war")

是不是很简单

那么,我们再来搞一个启动python脚本


import os
#使用system()输入启动脚本
os.system("python runall.py")

说的很直接一点,就是把 cmd窗口中运行的内容,放到 os.system()中。

小屌丝:嗯,不错不错。还有没有别的实用的小技巧?

小鱼:咋哪都有你…

我们继续,看看如何查询日志


4 查看服务器日志


只要是撸码人,都离不开日志。

虽然查看日志的方式有多种,但是我们今天就来搞其中的一种:

使用python查询服务器日志。


劲酒虽好,但是我不贪杯~


这里需要用到的是Python的扩展模块paramike。

我们就来看看它有啥能耐…

首先,需要安装paramiko模块,老规矩 pip 安装


pip install paramiko

注意:

只要涉及到第三方模块,就需要单独安装


其次 我们来连接远程服务


上代码


# -*- coding: utf-8 -*-
"""
@ auth : carl_DJ
@ time : 2021-01-01
"""
import paramiko
#建立一个ssh链接的对象
ssh = paramiko.SSHClient()
#允许将新人的主机自动加入到host_allow列表
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
#调用ssh对象的connect()方法连接远程服务器,输入账号信息
ssh.connect(hostname = '127.0.0.1',
    port = 22,
    username = 'root',
    password = '123456')
#通过exec_command()方法把需要执行的命令放入其参数之中,并赋给stdin,stdout,stderr
stdin,stdout,stderr = ssh.exec_command("tail -1000 data/files/logs/version.logs")
#最后是打印出结果,读取的内容需要通过decode()函数进行解码
print(stdout.read().decode())

小屌丝:可以啊,鱼哥,你怎么不早点分享呢??

小鱼:…这还怪我了??


因为这些都是我们平时工作中常用到的,所以,小鱼就总结并分享出来,希望能帮助更多的小姐姐,小哥哥们…


同时,也可以持续关注小鱼的博客。

让你也成为了别人眼中的大佬。


最后,用一句话结束2020,开始2021。


相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
6天前
|
存储 人工智能 NoSQL
Airweave:快速集成应用数据打造AI知识库的开源平台,支持多源整合和自动同步数据
Airweave 是一个开源工具,能够将应用程序的数据同步到图数据库和向量数据库中,实现智能代理检索。它支持无代码集成、多租户支持和自动同步等功能。
66 14
|
14天前
|
Java 关系型数据库 MySQL
SpringBoot 通过集成 Flink CDC 来实时追踪 MySql 数据变动
通过详细的步骤和示例代码,您可以在 SpringBoot 项目中成功集成 Flink CDC,并实时追踪 MySQL 数据库的变动。
119 43
|
1月前
|
机器学习/深度学习 PyTorch 测试技术
LossVal:一种集成于损失函数的高效数据价值评估方法
LossVal是一种创新的机器学习方法,通过在损失函数中引入实例级权重,直接在训练过程中评估数据点的重要性,避免了传统方法中反复重训练模型的高计算成本。该方法适用于回归和分类任务,利用最优传输距离优化权重,确保模型更多地从高质量数据中学习。实验表明,LossVal在噪声样本检测和高价值数据点移除等任务上表现优异,具有更低的时间复杂度和更稳定的性能。论文及代码已开源,为数据价值评估提供了高效的新途径。
65 13
LossVal:一种集成于损失函数的高效数据价值评估方法
|
1月前
|
人工智能 安全 Dubbo
Spring AI 智能体通过 MCP 集成本地文件数据
MCP 作为一款开放协议,直接规范了应用程序如何向 LLM 提供上下文。MCP 就像是面向 AI 应用程序的 USB-C 端口,正如 USB-C 提供了一种将设备连接到各种外围设备和配件的标准化方式一样,MCP 提供了一个将 AI 模型连接到不同数据源和工具的标准化方法。
|
2月前
|
弹性计算 安全 开发工具
灵码评测-阿里云提供的ECS python3 sdk做安全组管理
批量变更阿里云ECS安全组策略(批量变更)
|
2月前
|
存储 关系型数据库 数据库
【赵渝强老师】PostgreSQL的服务器日志文件
本文介绍了PostgreSQL数据库的物理存储结构,重点讨论了服务器日志文件。通过`pg_ctl`命令启动PostgreSQL实例时,使用`-l`参数指定日志文件位置,记录数据库启动、运行及关闭过程中的关键信息。附有相关视频讲解和日志文件示例。
112 0
|
3月前
|
监控 Linux 开发者
如何在 Linux 中优雅的使用 head 命令,用来看日志简直溜的不行
`head` 命令是 Linux 系统中一个非常实用的工具,用于快速查看文件的开头部分内容。本文介绍了 `head` 命令的基本用法、高级用法、实际应用案例及注意事项,帮助用户高效处理文件和日志,提升工作效率。
58 7
|
4月前
|
SQL 机器学习/深度学习 数据采集
SQL与Python集成:数据库操作无缝衔接2a.bijius.com
Python与SQL的集成是现代数据科学和工程实践的核心。通过有效的数据查询、管理与自动化,可以显著提升数据分析和决策过程的效率与准确性。随着技术的不断发展,这种集成的应用场景将更加广泛,为数据驱动的创新提供更强大的支持。
|
4月前
|
SQL 机器学习/深度学习 数据库
SQL与Python集成:数据库操作无缝衔接
1. Python与SQL集成的关键步骤 在开始之前,确保你已经安装了必要的Python库,如`sqlite3`(用于SQLite数据库)或`psycopg2`(用于PostgreSQL数据库)。这些库提供了Python与SQL数据库之间的接口。

推荐镜像

更多