《Elastic Stack 实战手册》——三、产品能力——3.5 进阶篇——3.5.16. Machine learning ——3.5.16.3.Anomaly detection(2) https://developer.aliyun.com/article/1227224
4. 使用 API 快速使用 Single metric job
创建一个名为 first_detectors 的 job,指定 jobId、分桶策略(bucket_span)、检测器
(detector)、带有时间戳的字段名(time_field)。
PUT _ml/anomaly_detectors/first_detectors { "description": "anomaly detector", "analysis_config": { "bucket_span": "15m", "detectors": [ { "detector_description": "Sum of volume", "function": "sum", "field_name": "volume" } ] }, "data_description": { "time_field": "date", "time_format": "epoch_ms" } }
此时该 job 还没有 datafeed,创建一个 datafeed,并绑定一个上述 job。
PUT _ml/datafeeds/first-datafeed { "job_id": "first_detectors", "indexes": [ "zmc-test1" ], "scroll_size": 1000 }
此时 datafeed 的状态是 stopped,启动该 datafeed 任务(前提:保证异常检测 job 是
open 状态)。
POST _ml/datafeeds/first-datafeed/_start?start=1970-01-02T10:00:00Z&end=2021-09-09T00:00:00Z
5. 使用 Kibana 快速使用 Single metric job
打开 Kibana,按照下图步骤找到创建 job 的入口。
选择 index pattern。
选择 job 类型,Kibana 7.x 支持四种类型的机器学习 job,这里选择 Single metric,对单个索引字段进行分析、预测。
选择"Use full zmc-* data"(可以通过调整时间区间控制需要分析的时序数据)。
选择字段和聚合类型,继续选择桶粒度的配置,如下图推荐桶粒度的配置为 1d,可以手动改
成 15m。
填写 job 信息,指定 jobId,选择 next 到下一步。
进入校验页面,校验数据和配置是否正确,选择 next 进入下一步,继续检查信息,选择
create job。
可以看到这是通过 API 和 Kibana 创建的 job。
《Elastic Stack 实战手册》——三、产品能力——3.5 进阶篇——3.5.16. Machine learning ——3.5.16.3.Anomaly detection(4) https://developer.aliyun.com/article/1227220