Kafka +深度学习+ MQTT搭建可扩展的物联网平台【附源码】

简介: Kafka +深度学习+ MQTT搭建可扩展的物联网平台【附源码】

物联网+大数据+机器学习将会是以后的趋势,这里介绍一篇这方面的文章包含源码。


混合机器学习基础架构构建了一个场景,利用Apache Kafka作为可扩展的中枢神经系统。 公共云用于极大规模地训练分析模型(例如,通过Google ML Engine在Google Cloud Platform(GCP)上使用TensorFlow和TPU,预测(即模型推断)在本地Kafka基础设施的执行( 例如,利用Kafka Streams或KSQL进行流分析)。


本文重点介绍内部部署。 创建了一个带有KSQL UDF的Github项目,用于传感器分析。 它利用KSQL的新API功能,使用Java轻松构建UDF / UDAF函数,对传入事件进行连续流处理。



使用案例:Connected Cars - 使用深度学习的实时流分析



从连接设备(本例中的汽车传感器)连续处理数百万个事件:

519bae28f15d00e8c5e9e157e2af30d9.jpg为此构建了不同的分析模型。 他们在公共云上接受TensorFlow,H2O和Google ML Engine的训练。 模型创建不是此示例的重点。 最终模型已经可以投入生产,可以部署用于实时预测。


模型服务可以通过模型server 完成,也可以本地嵌入到流处理应用程序中。 参阅RPC与流处理的权衡,以获得模型部署和....



演示:使用MQTT,Kafka和KSQL在Edge进行模型推理



Github项目:深度学习+KSQL UDF 用于流式异常检测MQTT物联网传感器数据

(下载源码:3aa46c2372700ac963550e9d06bb7c3a.jpgksql-udf-deep-learning-mqtt-iot-master.zip (474.64 KB, 下载次数: 0)

该项目的重点是通过MQTT将数据提取到Kafka并通过KSQL处理数据:

713af52f209a9541fb90a639c6b7b933.jpg

Confluent MQTT Proxy的一大优势是无需MQTT Broker即可实现物联网方案的简单性。 可以通过MQTT代理将消息直接从MQTT设备转发到Kafka。 这显着降低了工作量和成本。 如果你“只是”想要在Kafka和MQTT设备之间进行通信,这是一个完美的解决方案。


如果你想看到另一部分(与Elasticsearch / Grafana等接收器应用程序集成),请查看Github项目“KSQL for streaming IoT data”。 这实现了通过Kafka Connect和Elastic连接器与ElasticSearch和Grafana的集成。(源码下载:链接: https://pan.baidu.com/s/1FCFgAoF9v1ihp9fyqHeKag 密码: 67sz)


KSQL UDF - 源代码



开发UDF非常容易。 只需在UDF类中的一个Java方法中实现该函数:

 

@Udf(description = "apply analytic model to sensor input")             public String anomaly(String sensorinput){ "YOUR LOGIC" }

       
这里是所有代码:

package com.github.megachucky.kafka.streams.machinelearning;
import java.util.Arrays;
import hex.genmodel.GenModel;
import hex.genmodel.easy.EasyPredictModelWrapper;
import hex.genmodel.easy.RowData;
import hex.genmodel.easy.exception.PredictException;
import hex.genmodel.easy.prediction.AutoEncoderModelPrediction;
import io.confluent.ksql.function.udf.Udf;
import io.confluent.ksql.function.udf.UdfDescription;
@UdfDescription(name = "anomaly", description = "anomaly detection using deep learning")
public class Anomaly {
    // Model built with H2O R API:
      // anomaly_model <- h2o.deeplearning(x = names(train_ecg),training_frame =
      // train_ecg,activation = "Tanh",autoencoder = TRUE,hidden =
      // c(50,20,50),sparse = TRUE,l1 = 1e-4,epochs = 100)
      // Name of the generated H2O model
      private static String modelClassName = "io.confluent.ksql.function.udf.ml"
                                             + ".DeepLearning_model_R_1509973865970_1"; 
  @Udf(description = "apply analytic model to sensor input")
  public String anomaly(String sensorinput) {
      System.out.println("Kai: DL-UDF starting");
      GenModel rawModel;
        try {
            rawModel = (hex.genmodel.GenModel) Class.forName(modelClassName).newInstance();
        EasyPredictModelWrapper model = new EasyPredictModelWrapper(rawModel);
        // Prepare input sensor data to be in correct data format for the autoencoder model (double[]):
        String[] inputStringArray = sensorinput.split("#");
        double[] doubleValues = Arrays.stream(inputStringArray)
                .mapToDouble(Double::parseDouble)
                .toArray();
        RowData row = new RowData();
        int j = 0;
        for (String colName : rawModel.getNames()) {
          row.put(colName, doubleValues[j]);
          j++;
        }
        AutoEncoderModelPrediction p = model.predictAutoEncoder(row);
        // System.out.println("original: " + java.util.Arrays.toString(p.original));
        // System.out.println("reconstructedrowData: " + p.reconstructedRowData);
        // System.out.println("reconstructed: " + java.util.Arrays.toString(p.reconstructed));
        double sum = 0;
        for (int i = 0; i < p.original.length; i++) {
          sum += (p.original[i] - p.reconstructed[i]) * (p.original[i] - p.reconstructed[i]);
        }
        // Calculate Mean Square Error => High reconstruction error means anomaly
        double mse = sum / p.original.length;
        System.out.println("MSE: " + mse);
        String mseString = "" + mse;
        return (mseString);
        } catch (InstantiationException | IllegalAccessException | ClassNotFoundException e) {
            System.out.println(e.toString());
        } catch (PredictException e) {
            System.out.println(e.toString());
        }
        return null;
  }
}


如何使用Apache Kafka和MQTT Proxy运行演示?



执行演示的所有步骤都在Github项目中描述。

你只需安装Confluent Platform,然后按照以下步骤部署UDF,创建MQTT事件并通过KSQL levera处理它们....

这里使用Mosquitto生成MQTT消息。 当然,也可以使用任何其他MQTT客户端。 这是开放和标准化协议的巨大好处。


目录
相关文章
|
2月前
|
监控 网络协议 物联网
你知道什么是物联网MQTT么?
你知道什么是物联网MQTT么?
49 0
|
3月前
|
消息中间件 网络协议 物联网
MQTT常见问题之物联网设备端申请动态注册时MQTT服务不可用如何解决
MQTT(Message Queuing Telemetry Transport)是一个轻量级的、基于发布/订阅模式的消息协议,广泛用于物联网(IoT)中设备间的通信。以下是MQTT使用过程中可能遇到的一些常见问题及其答案的汇总:
|
5天前
|
网络协议 物联网 网络性能优化
物联网江湖风云变幻!MQTT CoAP RESTful/HTTP XMPP四大门派谁主沉浮?
【8月更文挑战第14天】本文概览了MQTT、CoAP、RESTful/HTTP及XMPP四种物联网通信协议。MQTT采用发布/订阅模式,轻量高效;CoAP针对资源受限设备,基于UDP,低延迟;RESTful/HTTP易于集成现有Web基础设施;XMPP支持双向通信,扩展性强。每种协议均附有示例代码,助您根据不同场景和设备特性作出最佳选择。
15 5
|
26天前
|
消息中间件 Kafka API
面试题Kafka问题之RabbitMQ的扩展和二次开发如何解决
面试题Kafka问题之RabbitMQ的扩展和二次开发如何解决
23 1
|
21天前
|
消息中间件 物联网 API
消息队列 MQ使用问题之如何在物联网项目中搭配使用 MQTT、AMQP 与 RabbitMQ
消息队列(MQ)是一种用于异步通信和解耦的应用程序间消息传递的服务,广泛应用于分布式系统中。针对不同的MQ产品,如阿里云的RocketMQ、RabbitMQ等,它们在实现上述场景时可能会有不同的特性和优势,比如RocketMQ强调高吞吐量、低延迟和高可用性,适合大规模分布式系统;而RabbitMQ则以其灵活的路由规则和丰富的协议支持受到青睐。下面是一些常见的消息队列MQ产品的使用场景合集,这些场景涵盖了多种行业和业务需求。
|
2月前
|
传感器 物联网
物联网协议概述:MQTT、CoAP 和 HTTP
【6月更文挑战第3天】探索物联网的三大协议——MQTT、CoAP 和 HTTP。MQTT 是高效的消息传递使者,适用于大规模、不稳定网络环境;CoAP 小巧灵活,适合资源有限的设备;HTTP 则是熟悉的网络通信老将。根据不同场景选择合适的协议,让物联网设备有效交流。示例代码展示它们的使用方式。
85 0
|
3月前
|
机器学习/深度学习 算法 安全
深度学习在图像识别中的应用与挑战构建高效可扩展的RESTful API:后端开发的实战指南
【4月更文挑战第30天】 随着计算机视觉技术的飞速发展,深度学习在图像识别领域取得了显著的成果。本文将探讨深度学习技术在图像识别中的应用及其所面临的挑战。首先,我们将介绍深度学习的基本原理和关键技术,然后分析其在图像识别中的优势和应用案例。最后,我们将讨论当前深度学习在图像识别领域所面临的主要挑战和未来的发展趋势。
|
3月前
|
人工智能 监控 安全
Springcloud数字化物联网智慧工地综合平台源码 劳务管理、设备管理、绿色施工
Springcloud数字化物联网智慧工地综合平台源码 劳务管理、设备管理、绿色施工
108 3
|
3月前
|
消息中间件 存储 Kafka
【深入浅出 RocketMQ原理及实战】「底层源码挖掘系列」透彻剖析贯穿一下RocketMQ和Kafka索引设计原理和方案
【深入浅出 RocketMQ原理及实战】「底层源码挖掘系列」透彻剖析贯穿一下RocketMQ和Kafka索引设计原理和方案
89 1
|
3月前
|
消息中间件 存储 负载均衡
[AIGC ~ coze] Kafka 消费者——从源码角度深入理解
[AIGC ~ coze] Kafka 消费者——从源码角度深入理解

相关产品

  • 物联网平台