【Python】【应用】Python应用之玩转gerrit系列之一——搭建基础环境

简介: 【Python】【应用】Python应用之玩转gerrit系列之一——搭建基础环境

1、缘起


  • Gerrit(Git)引入之后,经常要做些繁琐的工作,比如下载多个gerrit仓库,获取某次提交的代码对比、提交代码等。


  • Python是一个目前炙手可热的工具,用来对付这些繁琐的事情,刚刚好。


2、准备工作


2.1 安装python3


  • python2即将废弃,且对pip等支持较差,所以选择用python3。


  • 具体开发环境如下:


  • windows 7(64bits)


  • python 3.8.6


  • 按官方说明,python 2.6和2.7对接Pygerrit2更合适,而Python3处于试验阶段:


Pygerrit2 is compatible with Python 2.6 and Python 2.7. Support for

Python 3 is experimental.


2.2 安装相关库


  • requests库,提供了认证相关接口;


  • pygerrit2库,提供了gerrit相关的rest接口,不言而喻,以前有个pygerrit库的;


  • 安装方式见后文命令汇总,这里如不使用镜像库,安装可能比较慢。


2.3 获取http的用户名和密码


  • 进入gerrit页面,登陆后,账号–>Setting–>http password可看到Username和http-password,

也可直接进入页面:https://gerrit.zte.com.cn/#/settings/http-password查看。


  • 访问gerrit,有两种认证方式:http和ssh,pygerrit2仅支持http,所以这里仅获取http的账号和密码。


  • 具体如下图所示:



3、牛刀小试


  • 下面仅以获取open状态的commit为例来说明,代码比较简单:


from requests.auth import HTTPDigestAuth
from pygerrit2.rest import GerritRestAPI
if __name__ == '__main__':
    auth = HTTPDigestAuth('qxhgd@xxx.com', 'pwd2qxhgd') #获取auth信息
    rest = GerritRestAPI(url='https://gerrit.xxx.com', auth=auth) #用auth信息去访问gerrit的rest接口
    changes = rest.get("/changes/?q=owner:self%20status:open") #用rest接口去查询相关信息,json格式返回
    print(changes) #将json串打印出来


上述代码效果相当于,直接访问网址:

https://gerrit.xxx.com/#/q/owner:qxhgd%2540xxx.com+status:open


或在gerrit页面上输入下面过滤条件的结果。



4、命令汇总


python -m pip install --upgrade pip #升级pip
pip3 install requests #直接使用官方源安装
pip3 install -i https://pypi.douban.com/simple requests #使用镜像安装requests
pip3 install pygerrit2-i https://pypi.douban.com/simple  #使用镜像安装pygerrit2, 用镜像安装可用上述两种格式


5、参考资料







相关文章
|
11天前
|
数据库 Python
Python 应用
Python 应用。
32 4
|
20天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
61 6
|
21天前
|
数据采集 数据安全/隐私保护 开发者
非阻塞 I/O:异步编程提升 Python 应用速度
非阻塞 I/O:异步编程提升 Python 应用速度
|
11天前
|
机器学习/深度学习 数据采集 数据可视化
Python在数据科学中的应用:从入门到实践
本文旨在为读者提供一个Python在数据科学领域应用的全面概览。我们将从Python的基础语法开始,逐步深入到数据处理、分析和可视化的高级技术。文章不仅涵盖了Python中常用的数据科学库,如NumPy、Pandas和Matplotlib,还探讨了机器学习库Scikit-learn的使用。通过实际案例分析,本文将展示如何利用Python进行数据清洗、特征工程、模型训练和结果评估。此外,我们还将探讨Python在大数据处理中的应用,以及如何通过集成学习和深度学习技术来提升数据分析的准确性和效率。
|
9天前
|
机器学习/深度学习 数据可视化 Docker
Python环境
Python环境
21 3
|
13天前
|
机器学习/深度学习 JSON API
Python编程实战:构建一个简单的天气预报应用
Python编程实战:构建一个简单的天气预报应用
32 1
|
21天前
|
数据可视化 开发者 Python
Python GUI开发:Tkinter与PyQt的实战应用与对比分析
【10月更文挑战第26天】本文介绍了Python中两种常用的GUI工具包——Tkinter和PyQt。Tkinter内置于Python标准库,适合初学者快速上手,提供基本的GUI组件和方法。PyQt基于Qt库,功能强大且灵活,适用于创建复杂的GUI应用程序。通过实战示例和对比分析,帮助开发者选择合适的工具包以满足项目需求。
69 7
|
19天前
|
弹性计算 Linux iOS开发
Python 虚拟环境全解:轻松管理项目依赖
本文详细介绍了 Python 虚拟环境的概念、创建和使用方法,包括 `virtualenv` 和 `venv` 的使用,以及最佳实践和注意事项。通过虚拟环境,你可以轻松管理不同项目的依赖关系,避免版本冲突,提升开发效率。
|
21天前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
47 4
|
22天前
|
机器学习/深度学习 数据可视化 数据处理
Python在数据科学中的应用###
本文探讨了Python语言在数据科学领域的广泛应用及其重要性。通过分析Python的简洁语法、强大的库支持和跨平台特性,阐述了为何Python成为数据科学家的首选工具。文章还介绍了Python在数据处理、分析和可视化方面的具体应用实例,展示了其在提升工作效率和推动科学研究方面的巨大潜力。最后,讨论了未来Python在数据科学领域的发展趋势和挑战。 ###
下一篇
无影云桌面