Scala使用Akka模拟RPC机制代码2

简介:

RemoteMessage.scala

复制代码
//对象要序列化才能通过网络传输   这个地方没有大括号....这有这个extends声明
trait RemoteMessage extends Serializable

//Worker ->(发送给) Master  Worker给Master节点发送注册消息
case class RegisterWorker(id:String, memory:Int, scores:Int ) extends RemoteMessage

//接收已经在Master注册过的Worker定时发送来的心跳  Woker->Master
case class Heartbeat(id:String) extends RemoteMessage

//Master -> Worker   Master反馈给Worker已经注册的Worker有哪些
case class RegisteredWorker(masterUrl:String) extends RemoteMessage

//Worker -> self  //Worker先向自己发送一下心跳,这个地方可以做一下判断,根据实际情况,定义什么时候向Master发送消息
//在这个样例类中发送给Master的心跳  case class Heartbeat
case object SendHeartbeat

//Master -> self  Master自检查看Worker的状态
case object CheckTimeOutWorker
复制代码

 

WorkerInfo.scala

class WorkerInfo(val id:String,val memory:Int,val scores:Int) {
  //记录上一次心跳
  var lastHeartbeatTime : Long = _
}

 

Worker.scala

复制代码
import java.util.UUID
import com.typesafe.config.ConfigFactory
import akka.actor.Actor
import akka.actor.ActorSystem
import akka.actor.Props
import akka.actor.ActorSelection
import scala.concurrent.duration._  //如果不引入这个包 在 context.system.scheduler.schedule 中的mills 地方会报错

//使用Akka框架来实现RCP不同进程之间的方法调用   导入Actor是导入的akka包下的
//在Worker类上定义一个主构造器
class Worker (val masterHost:String ,val masterPort:Int ,val memory:Int ,val cores: Int) extends Actor {
  var master : ActorSelection = _
  //记录Worker从节点的id
  val workerId = UUID.randomUUID().toString()
  //记录Worker从节点的发送心跳的时间间隔
  val HEART_INTERVAL = 10000
  
  //preStart()方法在构造器之后,在receive之前执行  actorOf()方法执行 就会执行生命周期方法
  override def preStart() : Unit={
    //跟Master建立连接
    master = context.actorSelection(s"akka.tcp://MasterSystem@$masterHost:$masterPort/user/Master")
    //向Master发送注册消息
    master ! RegisterWorker(workerId,memory,cores)
  }
  
  override def receive: Receive = {
    //Master对注册的Worker存储注册之后需要向Worker发送消息 来说明该Woker注册成功
    //此处是Worker节点接收到Master节点的反馈消息
    case RegisteredWorker(masterUrl) => {
      println(masterUrl)
      //启动定时器发送心跳
      import context.dispatcher
      //多长时间后执行 单位 ,多长时间执行一次 单位  ,消息的接受者(直接给master发不好,先给自己发送消息,以后可以做下判断,什么情况下再发送消息), 消息
      context.system.scheduler.schedule(0 millis, HEART_INTERVAL millis, self, SendHeartbeat)
    }
    //Worker先向自己self发送一下心跳,这个地方可以做一下判断,根据实际情况,定义什么时候向Master发送消息
    case SendHeartbeat =>{
      println("send heartbeat to Master")
      master ! Heartbeat(workerId)
    }
  }
}
object Worker{
  def main(args: Array[String]): Unit = {
    //从传入的参数列表中取得
    val host = args(0)
    val port = args(1).toInt
    val masterHost = args(2)
    val masterPort = args(3).toInt
    val memory = args(4).toInt
    val cores = args(5).toInt
    //为了通过ActorSystem老大来获得Actor  准备配置
    val configStr = 
      s"""
         |akka.actor.provider = "akka.remote.RemoteActorRefProvider"
         |akka.remote.netty.tcp.hostname = "$host"
         |akka.remote.netty.tcp.port = "$port"
        """.stripMargin
    val config = ConfigFactory.parseString(configStr)
    //ActorSystem是所有Actor的老大,辅助创建和监控下面的Actor, 该老大是单例的.
    //得到该老大的对象需要一个名字和配置对象config
    val actorSystem = ActorSystem("WorkerSystem",config) 
    //actorOf方法执行,就会执行生命周期方法
    actorSystem.actorOf(Props(new Worker(masterHost, masterPort, memory, cores)),"Worker")
    actorSystem.awaitTermination()
  }
}
复制代码

 

Master.scala

复制代码
import com.typesafe.config.ConfigFactory

import akka.actor.Actor
import akka.actor.ActorSystem
import akka.actor.Props
import scala.collection.mutable
import scala.concurrent.duration._

class Master(val host:String,val port:Int) extends Actor{
  
  //定义一个HashMap用来存储注册Worker的信息
  val idToWorkerHashMap = new mutable.HashMap[String,WorkerInfo]()
  //定义一个HashSet用于存储 注册的Worker对象 WorkerInfo
  val workersSet = new mutable.HashSet[WorkerInfo]() //使用set删除快, 也可用linkList
  //超时检查的间隔  这个时间间隔一定要大于Worker向Master发送心跳的时间间隔.
  val CHECK_INTERVAL = 15000
  
  override def preStart() :Unit = {
    println("preStart invoked")
    //导入隐式转换
    //使用timer太low了,可以使用akka的定时器,需要导入这个包
    import context.dispatcher 
    context.system.scheduler.schedule(0 millis, CHECK_INTERVAL millis, self, CheckTimeOutWorker)
  }
  //接收Worker发送来的消息  可以有注册RegisterWorker 心跳Heartbeat
  override def receive :Receive = {
    case RegisterWorker(id,memory,cores) =>{
      //判断该Worker是否已经注册过 
      if(!idToWorkerHashMap.contains(id)){
        //把Worker的信息封装起来保存到内存中
        val workerInfo = new WorkerInfo(id,memory,cores)
        //以id为键  worker对象为值 添加到该idToWorker的HashMap对象中
        idToWorkerHashMap(id) = workerInfo 
        //把workerInfo对象放到存储Woker的HashSet中
        workersSet += workerInfo
        //对注册的Worker存储注册之后需要向Worker发送消息 来说明该Woker注册成功
        sender ! RegisteredWorker(s"akka.tcp://MasterSystem@$host:$port/user/Master")//通知worker注册
      }
    }
    //接收已经在Master注册过的Worker定时发送来的心跳 
    case Heartbeat(id) =>{
      if(idToWorkerHashMap.contains(id)){
        val workerInfo = idToWorkerHashMap(id)
        //报活  把该Worker给Master心跳的时间记录下来
        val currentTime = System.currentTimeMillis()
        workerInfo.lastHeartbeatTime = currentTime
      }
    }
    //Master节点主动检测在Master自己这里注册Worker节点的存活状态
    case CheckTimeOutWorker =>{
      val currentTime = System.currentTimeMillis();
      //如果当前时间和最近一次心跳时间的差值大于检测的时间间隔 就要干掉这个Worker
      val toRemove = workersSet.filter(x => currentTime - x.lastHeartbeatTime > CHECK_INTERVAL)
      for(w <- toRemove){
        workersSet -= w
        idToWorkerHashMap -= w.id
      }
      println(workersSet.size)      
    }
  }
}

object Master{
  def main(args: Array[String]): Unit = {
    val host = args(0)
    val port = args(1).toInt
    //准备配置
    val configStr = 
      s"""
         |akka.actor.provider = "akka.remote.RemoteActorRefProvider"
         |akka.remote.netty.tcp.hostname = "$host"
         |akka.remote.netty.tcp.port = "$port"        
        """.stripMargin
    //ConfigFactory 既有parseString 也有parseFile 
    val config = ConfigFactory.parseString(configStr)
    //ActorSystem是所有Actor的老大,辅助创建和监控下面的所有Actor,它是单例的
    val actorSystem = ActorSystem("MasterSystem",config)
    val master = actorSystem.actorOf(Props(new Master(host,port)),"Master")
    actorSystem.awaitTermination()
  }
}
复制代码

另外一个版本:http://www.cnblogs.com/DreamDrive/p/6736471.html



本文转自SummerChill博客园博客,原文链接:http://www.cnblogs.com/DreamDrive/p/6740440.html,如需转载请自行联系原作者

相关文章
|
7月前
|
监控 Scala 数据安全/隐私保护
Scala代码实践:软件开发中的如何避免员工接私单的防范
在 Scala 软件开发中防止员工接私单,可以通过实施权限控制和审计日志来限制敏感数据访问,并监测员工行为。使用监控系统检测异常活动,一旦发现可疑行为,自动发送警告和生成报告,以便及时干预。这些措施有助于保护项目进度和质量,提高团队效率。
184 1
|
并行计算 Scala
175 Scala 项目案例(Akka简介)
175 Scala 项目案例(Akka简介)
108 0
|
7月前
|
网络协议 测试技术 C++
一个不错的的rpc开源代码-rest_rpc
一个不错的的rpc开源代码-rest_rpc
118 0
|
22天前
|
Java Apache C++
别再手写RPC了,Apache Thrift帮你自动生成RPC客户端及服务端代码
Thrift 是一个轻量级、跨语言的远程服务调用框架,由 Facebook 开发并贡献给 Apache。它通过 IDL 生成多种语言的 RPC 服务端和客户端代码,支持 C++、Java、Python 等。Thrift 的主要特点包括开发速度快、接口维护简单、学习成本低和多语言支持。广泛应用于 Cassandra、Hadoop 等开源项目及 Facebook、百度等公司。
别再手写RPC了,Apache Thrift帮你自动生成RPC客户端及服务端代码
|
5月前
|
SQL Java 数据处理
实时计算 Flink版产品使用问题之使用MavenShadePlugin进行relocation并遇到只包含了Java代码而未包含Scala代码,该怎么办
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
7月前
|
存储 监控 分布式数据库
Scala代码在局域网监控软件中的分布式处理
该文介绍了如何使用Scala进行局域网监控数据的分布式处理。通过示例展示了利用Scala的并发能力进行数据收集,使用集合操作进行数据处理与分析,以及如何将处理结果存储到分布式数据库(如Cassandra)和自动提交到网站。Scala的并发处理能力和丰富库支持使其在分布式处理中表现出色。
128 3
|
7月前
|
负载均衡 监控 API
实时计算 Flink版产品使用合集之Akka RPC 压力过大,除了增大心跳超时,是否有其他解决方法
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
7月前
|
负载均衡 监控 流计算
Flink 的 Akka RPC 压力过大的问题,可能有多种原因
Flink 的 Akka RPC 压力过大的问题,可能有多种原因
187 6
|
缓存 Shell 网络安全
Github-推送代码报错“error:RPC failed;curl 56 OpenSSL SSL_read: SSL_ERROR_SYSCALL,errno 10054”解决方案
Github-推送代码报错“error:RPC failed;curl 56 OpenSSL SSL_read: SSL_ERROR_SYSCALL,errno 10054”解决方案
462 0
|
分布式计算 Java API
IDEA实现Java与Scala代码混合开发
IDEA实现Java与Scala代码混合开发
794 0
IDEA实现Java与Scala代码混合开发