YYDS! Python 帮我扛起运营大旗!

简介: 最近参加了一个训练营,作为副教练,承担起训练营的运营工作。事不大,活不少,打卡记录、活动积分、奖励制度、评优方案、趋势对比,应有尽有……

最近参加了一个训练营,作为副教练,承担起训练营的运营工作。事不大,活不少,打卡记录、活动积分、奖励制度、评优方案、趋势对比,应有尽有……

开始认为 Excel 就足够应付,没想到第一项工作 —— 人员汇总,就把我难倒了,于是果断拎起 Python 这把大刀,披荆斩棘,利用业余时间,不到一周竟然打造出了一套运营管理系统,到底是如何做的呢?一起来看。


基础整理

数据是运营的基础,人员数据是基础数据,首先需要搞定人员信息。

训练营里的人员信息来自多个渠道,有通过 APP 报名的,有调查问卷收集的,还有人工录取的。

加上同一个可能在不太的地方用不一样的名字,以及不同渠道收集的数据完整性不同,所以整理基础数据工作耗费了将近两天时间。

最初用 Excel 的 VLookup 做数据合并,但灵活度小,限制大,放弃了。

最后使用 Python 处理各个渠道的数据,再录入了数据库,完成了数据整理工作。

这里重点说一下数据库。

使用数据库的好处是,方便数据整合、统计和更新。但是数据库一般比较重,维护部署都是问题,于是选用了文本数据库 SQLite[1] 作为数据库。

SQLite 很轻,不需要服务器,但功能MySQL[2] 类似。

使用起来安装 Python 的 SQLite 模块就可以了:


pip install sqlite3


创建数据库链接:


import sqlite3
conn = sqlite3.connect('database.db')


其中 database.db 就是一个普通文件,如果没有,会自动创建一个。

有了链接,就可以执行数据库操作了,比如创建一个库表,插入数据:


# 创建一个游标
cur = con.cursor()
# 执行SQl 语句创建库表
cur.execute('''CREATE TABLE stocks
               (date text, trans text, symbol text, qty real, price real)''')
# 向库表中插入数据
cur.execute("INSERT INTO stocks VALUES ('2006-01-05','BUY','RHAT',100,35.14)")
# 提交更改结果
con.commit()
# 关闭链接
con.close()


因为需要频繁地操作数据库,所以将这些操作写成一个类:

class DBSqlite:
    def __init__(self, db):
        super().__init__()
        self.db = db
        self._conn = None
    def __del__(self):
        if self._conn:
            self._conn.close()
    def _get_conn(self):
        if not self._conn:
            self._conn = sqlite3.connect(self.db)
            self._conn.row_factory = sqlite3.Row
        return self._conn
    def _query(self, sql):
        conn = self._get_conn()
        cur = conn.cursor()
        rows = []
        for row in cur.execute(sql):
            rows.append(row)
        cur.close()
        return rows
    def de(self, sql):
        conn = self._get_conn()
        cur = conn.cursor()
        for s in sql.split(";"):
            cur.execute(s)
        conn.commit()
        cur.close()
        return True
    def insert(self, table, rows):
        conn = self._get_conn()
        cur = conn.cursor()
        cur.executemany("insert into %s values (%s)" % (table, ("?,"*len(rows[0]))[:-1]), rows)
        conn.commit()
        cur.close()
        return True
    def query(self, sql):
        conn = self._get_conn()
        cur = conn.cursor()
        cur.execute(sql)
        rows = cur.fetchall()
        cur.close()
        return rows
  • 封装了基本操作,de 为执行一个数据库操作,insert 为插入数据,query 执行一个查询
  • 需要注意的_get_conn 中的 self._conn.row_factory = sqlite3.Row 语句,作用时执行查询后,返回的结果会被转化为 sqlite.Row 对象,以便通过字段名来读取值,详细参加 row_factory[3]

处理好基础数据,也有了数据库工具,就可以开始构建系统了。


结构设计

系统再小,也需要先从结构设计入手。

这个系统只是单机版(实际上可以做 Web 扩展,下篇展开),所以省去了网络和 API 设计,直接从库表设计开始。

首先分析业务。

训练营的运营数据包括,打卡数据,开单数据,组长日常工作,以及成员积分(通过积分规则,再自动核算部分展开)。

另外,成员有职务之分:普通成员 和 组长。规则是:组长可以作为普通成员,普通成员不能为组长。

那么人员库表中,加入了职务,和组别,以便区分人员角色:


74.png


人员表

  • mixin_id 是用户注册App的id
  • std_id 为打卡系统的id
  • team 为小组名
  • title 为职务

然后设置一个活动类型表,并指定活动与职务的关系:


75.png

活动表

  • type 为活动类型
  • value 为活动积分
  • tilte 为该活动对于的职务

接下来就是活动记录表了,由于已经定义了活动与职务的对于关系,所以,活动记录表中,只需记录活动类型即可:


76.png


  • mixin_id 为用户id,std_id 其实是没必要的,不过录入打卡记录时顺带记录了
  • date 为活动发生的日期
  • type 为活动内容

如果同一个人同一天同一个活动出现多次,就会有重复记录,那么如何区分是否真的重复呢?在 数据收集 中展开。

除了基本的数据结构,还积分统计明细和积分合计表,这里不再赘述,会在核算部分提及。


数据收集

现在数据框架有了,数据从何而来呢?

这个训练营的数据主要来自两个地方,第一是打卡数据,第二是日常记录数据。

打卡数据由鲸打卡提供,可以在浏览器中查看,并且提供了导出打卡 Excel 的功能。

不过操作比较麻烦:首先登录后台(用微信扫码登录),再先选择导出条件(一般为时间区间),下载Excel,然后打开 Excel,才能复制其中的打卡信息,存入文本文件,最后才能执行脚本处理。

好问题:

为什么不直接处理 Excel 呢?

  1. 因为Excel 处理需要安装额外库,也没有文本文件处理方便。
  2. 另外未来考虑做成 Web 系统,所以没有做 Excel 的进一步扩展。


不选择导出,就得用程序请鲸鱼打卡上抓取了。

所以就研究了下打开管理后台的请求,分析了一下,请求中有个 cookie 值是关键,于是,复制请求,转化为 Python 代码,详细描述见 自动预约程序

收集到的数据是 JSON 格式的,将其转化为 List,插入数据库:


def record_check(rows):
    dbrows = []
    for row in rows:
        u = get_user(std_id=int(row[0]))
        if u:
            if row[2] != "×":
                dbrows.append((u['mixin_id'], u['std_id'], row[1], "打卡", 1, row[2], None))
        else:
            print("没有找到用户:", row)
    if len(dbrows) > 0:
        db.insert("tprj_activity", dbrows)
    return dbrows


  • record_check 方法是用来记录打开记录的,参数 rows 是从打开后台抓取的数据
  • get_user 是可以根据打卡用户的 id,从用户表中找到用户记录,然后结合打卡记录,补全打卡记录
  • db 是 上面提到的 DBSqlite 一个实例,调用其 insert 方法将数据插入数据库

日常记录,需要根据训练营中的实际情况做记录,比如成员开单,组长轮值等,记录在 Excel 中比较方便。每日统计一次,所以我直接将数据复制处理,也存放到文本文件中,用程序解析成记录行,插入库表,展示一下解析方法:


def merge_activity(datafilename):
    rows = []
    with open(datafilename, 'r', encoding='utf-8') as check_f:
        data = {}
        for line in check_f:
            linedata = line[:-1].split('\t')
            date = linedata[0].replace("/","-")
            userinfo = linedata[1].split("/")
            team = userinfo[0]
            name, mixin_id, std_id = userinfo[1].split('-')
            atype = linedata[2]
            rows.append((mixin_id, date, atype))
    ...


可以看到,通过读入文本行,再拆分成对于字段,合成活动记录。

这样两个数据收集工作就做好了,这里还需要解决一个问题 —— 避免数据重复。

容易想到的方法是,为数据设置联合主键,然后对数据做增量式更新。

但是这样做需要做更多的工作,而且还要很好的测试。

从业务上分析可知:活动数据并不多,学员个数不过一百。

那么不妨每次重算!?

即每次执行时,先库表数据删除,然后重新插入一遍。

虽然效率了不高,也算是用框架换时间吧,换的不出机器时间,而是我的工作时间哈哈。


自动核算

数据统计收集完毕,就需要根据活动积分,计算每个人的积分明细合计。

既然我们选用了数据库,就直接用 Sql 语句搞定吧。

相对程序处理来说,Sql 更容易做统计类的事情。

统计普通成员积分明细的语句如下:


INSERT INTO tprj_user_score_detail 
SELECT a.mixin_id, sum(s.value), u.team, '成员', a.date 
FROM
    tprj_activity a
    LEFT JOIN tprj_user u ON a.mixin_id = u.mixin_id
    LEFT JOIN tbas_score s ON a.type = s.type 
WHERE s.title = '成员' 
GROUP BY
    a.mixin_id,
    u.team,
    u.title,
    a.date


  • 查询所有职务属于 成员 的活动积分,插入成员积分明细表
  • tprj_activity 为活动记录表,与 tprj_user 用户表链接,然后再链接上活动表 tbas_score,作用是对活动类做约束
  • where 条件中,限制活动类型必须为 成员 活动
  • sum(s.value) 为一个成员的当日积分合计,日期 体现在 group by 的条件中了

类似的需要写很多统计语句,比如组长的,小组的,以及各自的积分合计,不再逐个展示了。

由于 sql 语句较多,为了便于管理,将 sql 语句整理到 sql.py 文件中,在导入主程序代码,最后调用 DBSqlite 工具方法执行,例如:


import sql
...
db.de(sql.user_score_detail)
...


是不优雅多了?

打卡率是通过统计活动记录计算的:


def cal_check_rate():
    ## 计算打卡率
    team_member = {}
    for r in db.query(sql.team_member_count):
        team_member[r['team']] = r['mcount']
    dbrows = []
    for r in db.query(sql.team_check_count):
        dbrows.append((r['team'], r['date'], round((r['checkcount']/team_member[r['team']])*100)))
    if len(dbrows) > 0:
        db.insert("tprj_team_check_rate", dbrows)
    return dbrows


  • team_member_count 语句语句获取各组的人数,因为可能有人没有注册打卡。只通过打卡记录获取组内人数,不严谨。
  • team_check_count 语句是按组和日期分类核算出的组打卡数
  • 打卡率公式为:(打卡个数/组内人数) * 100%
  • 将计算好的打卡率,按日期存入 dbrows,最后插入数据库

这里还需要注意的是重复数据问题,处理方法简单粗暴:

全部清除重算

其他数据处理也类似。


报表导出

数据处理做好了,要让发挥数据的作用,就需要制作成报表,才能让其他人利用。

本着一切从简的原则(主要是需要尽快提供结果),选择也 Excel 现统计结果。

要输出哪些内容呢?

打卡率、成员积分、组排名等,是需要的。

对于打卡率,需要按组分类,这样就有读出小组成员的作用,如何抽取数据呢?

写个 Sql 就好了, 获取打卡率的语句 check_rate_show 如下:


SELECT 
    date,
    max(case when team ='1组' then rate else 0 end) as '1组',
    max(case when team ='2组' then rate else 0 end) as '2组',
    max(case when team ='3组' then rate else 0 end) as '3组',
    max(case when team ='4组' then rate else 0 end) as '4组',
    max(case when team ='5组' then rate else 0 end) as '5组'
FROM tprj_team_check_rate
GROUP BY date


  • tprj_team_check_rate 是用于按组和日期存放打卡率
  • select 语句中,使用了行转列的技巧,使得结果为 第一列为日期,后面列为各个组,这样是为了绘制成图表方便

其实结果可以导入 Excel ,生成报表,更方便一些,但是我没这样做,因为:

  1. 操作 Excel 比较费劲,调试工作量大
  2. 我有更大的打算,即最终实现为在线版的,所以花费大量时间不值得

因此我直接将数据输出到文本文件里了。

例如对打卡率的输出是这样的:


def show_check_rate():
    data = db.qj(sql.check_rate_show)
    result = []
    # 处理表头
    line = '\t'.join(data[0].keys()) + "\n"
    result.append(line)
    # 生成表头
    for d in data:
        row = []
        for k in d.keys():
            if k != 'date':
                row.append(str(d[k]) + "%")
            else:
                row.append(d[k])
        line = '\t'.join(row) + "\n"
        result.append(line)
    result.append('\n')
    return result


  • check_rate_show 执行 Sql 获得数据
  • 从数据中获取表头信息,做成一行记录,请注意字段的分隔为 tab 符,这样为了方便直接粘贴到 Excel 中
  • 取出数据中的每一行,做成表体数据行
  • 最后再加入一个回车,这是为了和其他的输出分隔开

方法执行的结果,写入文本文件:


filename = "result_%s.txt" % today.strftime("%Y-%m-%d %H_%M_%S")
with open(filename, 'w', encoding='utf-8') as r:
    r.writelines(show_check_rate()) # 打卡率
    r.writelines(show_member_score()) # 成员积分
    ...
  • filename 为要写入的文本文件,这里利用当前时间作为文件名,是为了不重复
  • 打开文件,用 writelines 方法将返回的行写入文件中
  • 这里还可以调用其他产生输出方法,将结果写入文件

最后,文件中数据如下:


date  1组  2组  3组  4组  5组
2021-08-01  65% 90% 79% 85% 72%
2021-08-02  75% 90% 79% 85% 67%
2021-08-03  55% 90% 84% 75% 67%
2021-08-04  60% 95% 74% 75% 61%


复制到 Excel 的图表数据中就会形成打卡率图表:

0.png

打卡率图表

日常维护

运营工作不是一成不变的,比如为了激励成员对提出的问题进行整理,新增了一个积分点叫 解答整理

就得调整积分项,因为之前已经将积分项用库表存储了,现在只需要增加一条记录,并指明该积分适用于成员角色就可以了。

另外,在 活动详情 报表中,需要按活动名称记录每个人的数据,也是个行转列的操作,但麻烦的是活动项是会变的。

于是先将获取项动态获取到,然后合成为行转列的语句,再和查询语句合并为完整的 Sql 语句,这样活动再有调整时,管添加数据项就好了,代码如下:

score_type_temp = "max(case when type ='{atype}' then num else 0 end) as '{atype}'"
types = db.query("select type, value from tbas_score where title='%s'" % title)
temps = []
for t in types:
    temps.append(sql.score_type_temp.format(atype=t['type']))
allsql = sql.member_score.format(",\n".join(temps))

最后,将各部分的代码集成起来,放在一个 main 函数中,每天执行一次,将输出的文本文件中的数据复制到 Excel 中,就完成当日报表了,整个操作耗时不到十分钟,还算满意。

总结

促使我这么做的是,不想在机械的事情上耗费时间,所以会尽可能将能自动处理的,让程序处理。

虽然让一切程序化是一个理想,在实现的道路上会有很多阻碍,所以还需要找到落地的平衡点,需要接受不完美,需要已实用为导向 —— 先实现,再完美

下期,在实现基本功能的基础上,我们聊聊如何将这个平台 Web 化。

比心!

目录
相关文章
|
程序员 数据安全/隐私保护 计算机视觉
Python:运营自媒体,如何修改图片的MD5值
Python:运营自媒体,如何修改图片的MD5值
538 0
Python:运营自媒体,如何修改图片的MD5值
|
存储 SQL 数据可视化
运营学Python|Python&Excel联动(上)
运营学Python|Python&Excel联动(上)
162 0
运营学Python|Python&Excel联动(上)
|
SQL 数据可视化 数据挖掘
运营学Python|一文搞定编码环境
运营学Python|一文搞定编码环境
189 0
运营学Python|一文搞定编码环境
|
SQL JSON 关系型数据库
YYDS! Python 帮我扛起运营大旗!
最近参加了一个训练营,作为副教练,承担起训练营的运营工作。事不大,活不少,打卡记录、活动积分、奖励制度、评优方案、趋势对比,应有尽有…… 开始认为 Excel 就足够应付,没想到第一项工作 —— 人员汇总,就把我难倒了,于是果断拎起 Python 这把大刀,披荆斩棘,利用业余时间,不到一周竟然打造出了一套运营管理系统,到底是如何做的呢?一起来看。
82 1
YYDS! Python 帮我扛起运营大旗!
|
Python 数据采集 数据挖掘
带你读《Python数据分析与数据化运营(第2版)》之三:10条数据化运营不得不知道的数据预处理经验
这是一本将数据分析技术与数据使用场景深度结合的著作,从实战角度讲解了如何利用Python进行数据分析和数据化运营。作者是有10余年数据分析与数据化运营的大数据专家,书中对50余个数据工作流知识点、14个数据分析与挖掘主题、4个数据化运营主题、8个综合性案例进行了全面的讲解,能让数据化运营结合数据使用场景360°落地。
|
Python 关系型数据库 数据库
带你读《Python数据分析与数据化运营(第2版)》之二:数据化运营的数据来源
这是一本将数据分析技术与数据使用场景深度结合的著作,从实战角度讲解了如何利用Python进行数据分析和数据化运营。作者是有10余年数据分析与数据化运营的大数据专家,书中对50余个数据工作流知识点、14个数据分析与挖掘主题、4个数据化运营主题、8个综合性案例进行了全面的讲解,能让数据化运营结合数据使用场景360°落地。
|
Python 数据挖掘 机器学习/深度学习
带你读《Python数据分析与数据化运营(第2版)》之一:Python和数据化运营
这是一本将数据分析技术与数据使用场景深度结合的著作,从实战角度讲解了如何利用Python进行数据分析和数据化运营。作者是有10余年数据分析与数据化运营的大数据专家,书中对50余个数据工作流知识点、14个数据分析与挖掘主题、4个数据化运营主题、8个综合性案例进行了全面的讲解,能让数据化运营结合数据使用场景360°落地。
|
5天前
|
安全 Java 数据处理
Python网络编程基础(Socket编程)多线程/多进程服务器编程
【4月更文挑战第11天】在网络编程中,随着客户端数量的增加,服务器的处理能力成为了一个重要的考量因素。为了处理多个客户端的并发请求,我们通常需要采用多线程或多进程的方式。在本章中,我们将探讨多线程/多进程服务器编程的概念,并通过一个多线程服务器的示例来演示其实现。
|
5天前
|
程序员 开发者 Python
Python网络编程基础(Socket编程) 错误处理和异常处理的最佳实践
【4月更文挑战第11天】在网络编程中,错误处理和异常管理不仅是为了程序的健壮性,也是为了提供清晰的用户反馈以及优雅的故障恢复。在前面的章节中,我们讨论了如何使用`try-except`语句来处理网络错误。现在,我们将深入探讨错误处理和异常处理的最佳实践。
|
9天前
|
缓存 监控 Python
解密Python中的装饰器:优雅而强大的编程利器
Python中的装饰器是一种强大而又优雅的编程工具,它能够在不改变原有代码结构的情况下,为函数或类添加新的功能和行为。本文将深入解析Python装饰器的原理、用法和实际应用,帮助读者更好地理解和利用这一技术,提升代码的可维护性和可扩展性。