Lua集成kafka第三方插件代码介绍|学习笔记

简介: 快速学习Lua集成kafka第三方插件代码介绍

开发者学堂课程【大数据实战项目:反爬虫系统(Lua+Spark+Redis+Hadoop框架搭建):Lua集成kafka第三方插件代码介绍】学习笔记与课程紧密联系,让用户快速学习知识

课程地址:https://developer.aliyun.com/learning/course/670/detail/11614


Lua集成kafka第三方插件代码介绍

 

内容介绍:

一、代码的书

二、导入依赖包

三、创建Kafka生产者

四、创建数据的载体

五、发送数据

 

一、代码的书写

目标

编写 Lua 的脚本采集数据的脚本完成数据后集后,把这个数据发送到 Kafka 里面。

写思路:

类似于写Java的代码除去类似 Java 的部分,要多加一个引入操作。

我们现在使用的是 Lua 脚本 来采集数据,现在还没有 Kafka 生产者的API需要先引入 Kafka 的包,然后呢再做创建生产者创建数据的载体发送数据

 

二、导入依赖包

1.打开当下环境 resty,查找依赖包。

查找过程:user local authority- Lua lib进入到 Lua liver里不存在 Kafka 、然后再进入到resty、 Cd rest 里看是否存在 Kafka API 。

2.不存在API时需要使用第三方提供的 Kafka API 。

具体位置:在提供材料-素材-资料包-资料包- Open Resty里面资源里面有个 Lua rest, Kafka 的master文件。

Lua - resty - Kafka -master 右键解压。

点击进入 lib -resty- Kafka-producer其中包括许多内容。

图片1.png

3.将依赖包上传到集群里面上传查看 Kafka 整个目录

当前的目录是在resty 里边有一个 Kafka ,其中无内容。将 Kafka 整个目录全部都发送到环境目录下面来。用另外一个工具看一下192.168.100.160,然后用户名为root

输入密码123456然后找到usr - local -Lula labour。

把这里面的 Kafka 目录直接全部都拖过来走。

图片2.png


三、创建 Kafka 生产者

打开producer其中存在的[_M]与ridis的相似。具体代码如下:

Local_M={ _VERSION="0.06"}

local mt={ _index=M}

_M即意味着 Kafka 生产者需要创建一个 Kafka 实例。

创建实例需要用到new,查找目标:_M.new

接着需要这个 Kafka 的 new这个过程中需要用到以下参数

图片3.png

1. Sel

2. broker list指集群的一些信息诸如节点 IP端口内容 Brokerlist 传到环境中后已结束,传到客户端中。

3. config一些配置信息

存在or(空):即若传了这个参数,就显示参数如果没传我就相当默认的参数。

举例: producer type存在一个值 request_timeout,有个or 2000类似他这个默认值,这个属性中存在默认值。

如果传过来的内容中有数据,那就用用户传,如果没有就用这个默认值。搜索Opts,显示出来的均为默认值。

图片4.png

4.cluster_name:

存在 or DEFAULT_CLUSTER_NAME查找一下 =1 这也表示一个名字。

即此类集群的名字,如果传了,我就用户上传的命名;没传就使用1来代表该集群。

查找 _M.send发送数据 self 参数是数据本身。

发送数据时的 topic 、 Key 、message中不存在默认值,说明 topic 、 Key 、message 是发送数据时需要用户给出、必备的内容。

 

四、创建数据的载体

实际上不需要载体,但是也要有一个过程,实际上是没用到,但在发送数据的时候,直接把原始数据发送过去

 

五、发送数据

API 缩小化, produce这个就完成了。在桌面上面新建一个文件,这个文件就按照讲义中的名字进行命名: GetDataToKafka

GetDataToKafka 该文件用于书写获取数据,并且把数据打入到 Kafka

相关文章
|
JavaScript 前端开发 持续交付
Prettier 高级应用:集成 CI/CD 流水线与插件开发
【10月更文挑战第18天】Prettier 是一款流行的代码格式化工具,它能够自动将代码格式化成一致的风格,从而提高代码的可读性和维护性。对于希望进一步发挥 Prettier 潜力的高级用户而言,将 Prettier 集成到持续集成(CI)和持续部署(CD)流程中,确保每次提交的代码都符合团队标准,是非常重要的。此外,通过开发自定义插件来支持更多语言或扩展 Prettier 的功能也是值得探索的方向。本文将详细介绍这两方面的内容。
404 2
|
消息中间件 关系型数据库 MySQL
基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
1365 0
|
人工智能 Java API
支持 40+ 插件,Spring AI Alibaba 简化智能体私有数据集成
通过使用社区官方提供的超过 20 种 RAG 数据源和 20 种 Tool Calling 接口,开发者可以轻松接入多种外部数据源(如 GitHub、飞书、云 OSS 等)以及调用各种工具(如天气预报、地图导航、翻译服务等)。这些默认实现大大简化了智能体的开发过程,使得开发者无需从零开始,便可以快速构建功能强大的智能体系统。通过这种方式,智能体不仅能够高效处理复杂任务,还能适应各种应用场景,提供更加智能、精准的服务。
1938 110
|
消息中间件 关系型数据库 MySQL
基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
本教程展示如何使用Flink CDC YAML快速构建从MySQL到Kafka的流式数据集成作业,涵盖整库同步和表结构变更同步。无需编写Java/Scala代码或安装IDE,所有操作在Flink CDC CLI中完成。首先准备Flink Standalone集群和Docker环境(包括MySQL、Kafka和Zookeeper),然后通过配置YAML文件提交任务,实现数据同步。教程还介绍了路由变更、写入多个分区、输出格式设置及上游表名到下游Topic的映射等功能,并提供详细的命令和示例。最后,包含环境清理步骤以确保资源释放。
1065 2
基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
|
存储 Java C++
lua完整学习笔记
Lua学习笔记,涵盖了Lua的注释、数据结构、标识符、保留字、变量、运算符、函数、流程控制语句、循环语句、table的使用、迭代器以及模块化等基础知识点。
322 3
lua完整学习笔记
|
消息中间件 Java Kafka
什么是Apache Kafka?如何将其与Spring Boot集成?
什么是Apache Kafka?如何将其与Spring Boot集成?
808 5
|
消息中间件 Java Kafka
Spring Boot 与 Apache Kafka 集成详解:构建高效消息驱动应用
Spring Boot 与 Apache Kafka 集成详解:构建高效消息驱动应用
756 1
|
传感器 前端开发 Android开发
在 Flutter 开发中,插件开发与集成至关重要,它能扩展应用功能,满足复杂业务需求
在 Flutter 开发中,插件开发与集成至关重要,它能扩展应用功能,满足复杂业务需求。本文深入探讨了插件开发的基本概念、流程、集成方法、常见类型及开发实例,如相机插件的开发步骤,同时强调了版本兼容性、性能优化等注意事项,并展望了插件开发的未来趋势。
486 2
|
监控 关系型数据库 MySQL
zabbix agent集成percona监控MySQL的插件实战案例
这篇文章是关于如何使用Percona监控插件集成Zabbix agent来监控MySQL的实战案例。
318 2
zabbix agent集成percona监控MySQL的插件实战案例
|
缓存 NoSQL 搜索推荐
【📕分布式锁通关指南 03】通过Lua脚本保证redis操作的原子性
本文介绍了如何通过Lua脚本在Redis中实现分布式锁的原子性操作,避免并发问题。首先讲解了Lua脚本的基本概念及其在Redis中的使用方法,包括通过`eval`指令执行Lua脚本和通过`script load`指令缓存脚本。接着详细展示了如何用Lua脚本实现加锁、解锁及可重入锁的功能,确保同一线程可以多次获取锁而不发生死锁。最后,通过代码示例演示了如何在实际业务中调用这些Lua脚本,确保锁操作的原子性和安全性。
780 6
【📕分布式锁通关指南 03】通过Lua脚本保证redis操作的原子性

热门文章

最新文章