Python3,实用技巧之:批量处理数据、本地集成命令、查看服务器日志

简介: Python3,实用技巧之:批量处理数据、本地集成命令、查看服务器日志

1 引言


2021年开年第一篇,我们来聊聊Python的实用小技巧。

学会这几个小技巧,提升的不仅仅是你的工作效率,还有…


2 批量处理数据


在执行测试过程中,最繁琐的一件事就是造数据,当涉及到并发情况,造的数据,可能会让测开的人员有那么一种冲动…

那么,有没有什么方法,可以愉快的 造出大量的数据呢?


今天,就先来整一个,如何瞬间注册完成1000个账号的。


我们都知道,常用造数据的方法有两种:

①手动造数据

②自动造数据


手动造数据

我相信,这是大部分功能测试的人员,都经历过的事情

・打开文本文件,

・造出一条数据

・Ctrl +C , Ctrl +V


想想, 就…

为了能有更多的时间约妹子,

小鱼还是建议考虑考虑用 代码来实现这件事情


自动造数据

如何实现?话多不多,我们直接上代码。


# -*- coding: utf-8 -*-
"""
@ auth : carl_DJ
@ time : 2021-01-01
"""
'''
使用request方法发送注册请求完成1000个用户注册
'''
import requests
#定义一个全局变量 username作为初始化账号
username = 13352256666
#定义一个全局变量 password作为统一账户密码
password = "888888"
#定义注册函数
def register():
  #引用全局变量 username and password
  global username
  global password
  #注册地址
  url = "http://xxxx.com/register"
  form_data = {"usernam":username,"password":password}
  r = requests.post{url,data = form_data}
  #每次完成注册,将手机号+1
  username = username + 1
if __name__ = "__main__":
  #完成1000次的注册
  for i in range(0,1000):
  register()

小屌丝:小鱼,你这会不会出现 手机号重复的问题?

小鱼:嗯,你的问题非常好,这里把username设置成全局变量,

每次注册完成,都要username+1,即便在函数内执行+1,也会改变全局变量的值,然后下一次执行的时候再引用+1之后的手机号,这就解决了手机号重复的问题。

小屌丝:嗯,不亏是老鱼啊 ~~

小鱼: = =!


我们接着往下看,看看还有什么更实惠的小技巧…


3 本地集成命令


Python可以集成命令行,就好比我们熟悉的Windows的bat批处理以及Linux的sh脚本。

如果,不信的话,可以看小鱼的这三篇博文:

《python3把服务器备份mysql数据库下载到本地》

《启动appium服务的2种方法》

《adb常用命令总结及.bat文件封装》


小屌丝:小鱼,你能不能在这里在总结一下,我不想跳页看。

小鱼: = =! 唉 ~


这里用到的方法,很简单,就是 os模块,一行代码就搞定。

这里我们就以启动Jenkis为例


import os
#使用system()输入启动Jenkins的命令
os.system("java -jar E: /jenkins.war")

是不是很简单

那么,我们再来搞一个启动python脚本


import os
#使用system()输入启动脚本
os.system("python runall.py")

说的很直接一点,就是把 cmd窗口中运行的内容,放到 os.system()中。

小屌丝:嗯,不错不错。还有没有别的实用的小技巧?

小鱼:咋哪都有你…

我们继续,看看如何查询日志


4 查看服务器日志


只要是撸码人,都离不开日志。

虽然查看日志的方式有多种,但是我们今天就来搞其中的一种:

使用python查询服务器日志。


劲酒虽好,但是我不贪杯~


这里需要用到的是Python的扩展模块paramike。

我们就来看看它有啥能耐…

首先,需要安装paramiko模块,老规矩 pip 安装


pip install paramiko

注意:

只要涉及到第三方模块,就需要单独安装


其次 我们来连接远程服务


上代码


# -*- coding: utf-8 -*-
"""
@ auth : carl_DJ
@ time : 2021-01-01
"""
import paramiko
#建立一个ssh链接的对象
ssh = paramiko.SSHClient()
#允许将新人的主机自动加入到host_allow列表
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
#调用ssh对象的connect()方法连接远程服务器,输入账号信息
ssh.connect(hostname = '127.0.0.1',
    port = 22,
    username = 'root',
    password = '123456')
#通过exec_command()方法把需要执行的命令放入其参数之中,并赋给stdin,stdout,stderr
stdin,stdout,stderr = ssh.exec_command("tail -1000 data/files/logs/version.logs")
#最后是打印出结果,读取的内容需要通过decode()函数进行解码
print(stdout.read().decode())

小屌丝:可以啊,鱼哥,你怎么不早点分享呢??

小鱼:…这还怪我了??


因为这些都是我们平时工作中常用到的,所以,小鱼就总结并分享出来,希望能帮助更多的小姐姐,小哥哥们…


同时,也可以持续关注小鱼的博客。

让你也成为了别人眼中的大佬。


最后,用一句话结束2020,开始2021。


相关实践学习
通过日志服务实现云资源OSS的安全审计
本实验介绍如何通过日志服务实现云资源OSS的安全审计。
目录
相关文章
|
7月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
简介:本文整理自阿里云高级技术专家李麟在Flink Forward Asia 2025新加坡站的分享,介绍了Flink 2.1 SQL在实时数据处理与AI融合方面的关键进展,包括AI函数集成、Join优化及未来发展方向,助力构建高效实时AI管道。
991 43
|
6月前
|
SQL 人工智能 监控
SLS Copilot 实践:基于 SLS 灵活构建 LLM 应用的数据基础设施
本文将分享我们在构建 SLS SQL Copilot 过程中的工程实践,展示如何基于阿里云 SLS 打造一套完整的 LLM 应用数据基础设施。
1492 87
|
7月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
本文整理自阿里云的高级技术专家、Apache Flink PMC 成员李麟老师在 Flink Forward Asia 2025 新加坡[1]站 —— 实时 AI 专场中的分享。将带来关于 Flink 2.1 版本中 SQL 在实时数据处理和 AI 方面进展的话题。
435 0
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
|
6月前
|
数据采集 运维 监控
不重启、不重写、不停机:SLS 软删除如何实现真正的“无感数据急救”?
SLS 全新推出的「软删除」功能,以接近索引查询的性能,解决了数据应急删除与脏数据治理的痛点。2 分钟掌握这一数据管理神器。
737 47
|
7月前
|
存储 缓存 Apache
StarRocks+Paimon 落地阿里日志采集:万亿级实时数据秒级查询
A+流量分析平台是阿里集团统一的全域流量数据分析平台,致力于通过埋点、采集、计算构建流量数据闭环,助力业务提升流量转化。面对万亿级日志数据带来的写入与查询挑战,平台采用Flink+Paimon+StarRocks技术方案,实现高吞吐写入与秒级查询,优化存储成本与扩展性,提升日志分析效率。
923 1
|
6月前
|
运维 监控 安全
EventLog Analyzer:高效的Web服务器日志监控与审计解决方案
ManageEngine EventLog Analyzer是一款企业级Web服务器日志监控与审计工具,支持Apache、IIS、Nginx等主流服务器,实现日志集中管理、实时威胁检测、合规报表生成及可视化分析,助力企业应对安全攻击与合规挑战,提升运维效率。
342 0
|
7月前
|
人工智能 自然语言处理 安全
Python构建MCP服务器:从工具封装到AI集成的全流程实践
MCP协议为AI提供标准化工具调用接口,助力模型高效操作现实世界。
1264 1
|
7月前
|
SQL 关系型数据库 Apache
从 Flink 到 Doris 的实时数据写入实践 —— 基于 Flink CDC 构建更实时高效的数据集成链路
本文将深入解析 Flink-Doris-Connector 三大典型场景中的设计与实现,并结合 Flink CDC 详细介绍了整库同步的解决方案,助力构建更加高效、稳定的实时数据处理体系。
2766 0
从 Flink 到 Doris 的实时数据写入实践 —— 基于 Flink CDC 构建更实时高效的数据集成链路
|
7月前
|
存储 关系型数据库 数据库
【赵渝强老师】PostgreSQL数据库的WAL日志与数据写入的过程
PostgreSQL中的WAL(预写日志)是保证数据完整性的关键技术。在数据修改前,系统会先将日志写入WAL,确保宕机时可通过日志恢复数据。它减少了磁盘I/O,提升了性能,并支持手动切换日志文件。WAL文件默认存储在pg_wal目录下,采用16进制命名规则。此外,PostgreSQL提供pg_waldump工具解析日志内容。
655 0
|
7月前
|
数据采集 运维 监控

推荐镜像

更多