与大多数团队相比,因为我们使用了小众的Scala,可以算得上是“捞偏门”了,所以总结的技术实践未必具有普适性,但对于同为Scala的友朋,或许值得借鉴一二。Scala社区发出的声音还是太小,有点孤独——“鹦其鸣也,求其友声”。
这些实践不是书本上的创作,而是在产品研发中逐渐演化而来,甚至一些实践会非常细节。不过,那个优秀的产品不是靠这些细节堆砌出来的呢?
Scala语言的技术实践
两年前我还在ThoughtWorks的时候,与同事杨云(大魔头)在一个Scala的大数据项目,利用工作之余,我结合了一些文档整理了一份Scala编码规范,放在了github上,链接地址为:https://github.com/agiledon/scala_coding_convention。
我们的产品后端全部由Scala进行开发。对于编写Scala代码,我的要求很低,只有两点:
- 写出来的代码尽可能有scala范儿,不要看着像Java代码
- 不要用Scala中理解太费劲儿的语法,否则不利于维护
对于Scala编程,我们还总结了几条小原则:
- 将业务尽量分布到小的trait中,然后通过object来组合
- 多用函数或偏函数对逻辑进行抽象
- 用隐式转换体现关注点分离,既保证了职责的单一性,又保证了API的流畅性
- 用getOrElse来封装需要两个分支的模式匹配
- 对于隐式参数或支持类型转换的隐式调用,应尽量让import语句离调用近一些;对于增加方法的隐式转换(相当于C#的扩展方法),则应将import放在文件头,保持调用代码的干净
- 在一个模块中,尽量将隐式转换定义放到implicits命名空间下,除非是特别情况需要放到package object中
- 在不影响可读性的情况下,且无需封装任何行为,可以考虑使用tuple,而非case class
- 在合适的地方使用lazy关键字
AKKA的技术实践
我们产品用的AKKA并不够深入,仅仅使用了AKKA的基本功能。主要用于处理前端发来的数据分析消息,相当于一个dispatcher,也承担了部分消息处理的职责,例如对消息包含的元数据进行解析,生成SQL语句,用以发送给Spark的SqlContext。分析的结果则以Future的方式返回给Spray。
几条AKKA实践的小原则:
- actor接收的消息可以分为command和event两类。命名时,前者用动宾短语,表现为命令请求;后者则使用过去时态,体现fact的本质。
- 产品需要支持多种数据源,不同数据源的处理逻辑放到不同的模块中,我们利用actor来解耦
以下是为AKKA的ActorRefFactory定义的工厂方法:
通过向自定义的工厂方法actorOf()传入Actor的名称来创建Actor:
- 注意actor的sender不能离开当前的ActorContext
- 采用类似Template Method模式的方式去扩展Actor
- 或者以类似Decorator模式扩展Actor
- 考虑建立符合项目要求的SupervisorStrategy
- 尽量利用actor之间的协作来传递消息,这样就可以尽量使用tell而不是ask
Spark SQL的技术实践
目前的产品特性还未用到更高级的Spark功能。针对一些特殊的客户,我们计划采用Spark Streaming来进行流处理,除此之外,核心的数据分析功能都是使用Spark SQL。
以下是我们的一些总结:
- 要学会使用Spark Web UI来帮助我们分析运行指标;另外,Spark本身提供了与Monitoring有关的REST接口,可以集成到自己的系统中;
- 考虑在集群环境下使用Kryo serialization;
- 让参与运算的数据与运算尽可能地近,在SparkConf中注意设置spark.locality值。注意,需要在不同的部署环境下修改不同的locality值;
- 考虑Spark SQL与性能有关的配置项,例如spark.sql.inMemoryColumnarStorage.batchSize和spark.sql.shuffle.partitions;
- Spark SQL自身对SQL执行定义了执行计划,而且从执行结果来看,对SQL执行的中间结果进行了缓存,提高了执行的性能。例如我针对相同量级的数据在相同环境下,连续执行了如下三条SQL语句:
第一次执行的SQL语句:
SELECT UniqueCarrier,Origin,count(distinct(Year)) ASYearFROM airline GROUPBY UniqueCarrier,Origin
第二次执行的SQL语句:
SELECT UniqueCarrier,Dest,count(distinct(Year)) ASYearFROM airline GROUPBY UniqueCarrier,Dest
第三次执行的SQL语句:
SELECT Dest , Origin , count(distinct(Year)) ASYearFROM airline GROUPBY Dest , Origin
观察执行的结果如下所示:
观察执行count操作的job,显然第一次执行SQL时的耗时最长,达到2s,而另外两个job执行的时间则不到一秒。
- 针对复杂的数据分析,要学会充分利用Spark提供的函数扩展机制:UDF((User Defined Function)与UDAF(User Defined Aggregation Function);详细内容,请阅读文章《Spark强大的函数扩展功能》。
React+Redux的技术实践
我们一开始并没有用好React+Redux。随着对它们的逐渐熟悉,结合社区的一些实践,我们慢慢体会到了其中的一些好处,也摸索出一些好的实践。
- 遵循组件设计的原则,我们将React组件分为Component与Container两种,前者为纯组件。
组件设计的原则
- 一个纯组件利用props接受所有它需要的数据,类似一个函数的入参,除此之外它不会被任何其它因素影响;
- 一个纯组件通常没有内部状态。它用来渲染的数据完全来自于输入props,使用相同的props来渲染相同的纯组件多次,
- 将得到相同的UI。不存在隐藏的内部状态导致渲染不同。
- 在React中尽可能使用extends而不是mixin;
- 对State进行范式化,不要定义嵌套的State结构,不同数据的相互引用都通过ID来查找。范式化的state可以更有效地利用Store里存储空间;
- 如果不能更改后端返回的模型,可以考虑使用normalizr;但在我们的项目中,为了满足这一要求,我们专门修改了后端的API。因为采用了之前介绍的元数据架构,这个修改主要影响到了REST路由层和应用服务层的部分代码;
- 遵循Redux的三大基本原则;
Redux的三大基本原则
- 单一数据源
- State 是只读的
- 使用纯函数来执行修改
在我们的项目中,将所有向后台发送异步请求的操作都封装到service中,action会调用这些服务。我们使用了redux-actions的createAction创建dispatch需要的消息:
在Reducer中,通过redux-actions的handleAction来处理action,避免使用丑陋的switch语句:
在Container组件中,如果Store里面的模型对象需要根据id进行filter或merge之类的操作,则交给selector对其进行封装。于是Container组件中就可以这样来调用:
- 使用eslint来检查代码是否遵循ES编写规范;为了避免团队成员编写的代码不遵守这个规范,甚至可以在git push之前将lint检查加入到hook中:
echo "npm run lint" > .git/hooks/pre-push
chmod +x .git/hooks/pre-push
Spray与REST的技术实践
我们的一些总结:
- 站在资源(名词)的角度去思考REST服务,并遵循REST的规范;
- 考虑GET、PUT、POST、DELETE的安全性与幂等性;
- 必须为REST服务编写API文档,并即使更新;
- 使用REST CLIENT对REST服务进行测试,而不能盲目地信任Spray提供的ScalatestRouteTest对客户端请求的模拟,因为这种模拟其实省略了对Json对象的序列化与反序列化;
- 为核心的REST服务提供健康服务检查;
- 在Spray中,尽量将自定义的HttpService定义为trait,这样更利于对它的测试;在自定义的HttpService中,采用cake pattern(使用Self Type)的方式将HttpService注入;
- 我个人不太喜欢Spray以DSL方式编写REST服务,因为它可能让函数的嵌套层次太深;如果在一个HttpService(在我们的项目中,皆命名为Router)中,提供的服务较多,建议将各个REST动作都抽取为一个返回Route对象的私有函数,然后利用RouteConcatenation的~运算符拼接起来,以便于阅读:
- Spray默认对Json序列化的支持是使用的是Json4s,为此Spray提供了Json4sSupport trait;如果需要支持更多自定义类型的Json序列化,需要重写隐式值json4sFormats;建议将这些隐式定义放到Object中,交由Router引用,而不是定义为trait去继承。因为并非Router都使用Json格式,由于trait定义的继承传递性,可能会导致未使用Json格式的Router出现错误;
- Json4s可以支持Scala的大多数类型,包括Option等,但不能很好地支持Scala枚举以及复杂的嵌套递归结构,包括多态。这时需要自定义Serializer,具体做法可以参考我在知乎专栏上的文章