Logstash同步Invalid format: \“2019-12-20T15:18:13.000Z\“ is malformed at \“-12-20T15:18:13.000Z\“解决方案

简介: Logstash同步Invalid format: \“2019-12-20T15:18:13.000Z\“ is malformed at \“-12-20T15:18:13.000Z\“解决方案

参考:https://stackoverflow.com/questions/59517076/logstash-transfer-data-to-elasticsearch-parsing-date-error

Badger的回答:

The jdbc input will automatically change date columns to LogStash::Timestamp type, but your index template expects them to be text. Remove the "format" from the date fields in your index template.

翻译过来就是:jdbc输入将自动将日期列更改为LogStash::Timestamp类型,但索引模板要求它们是文本。从索引模板中的日期字段中删除“格式”。

意思就是说我们在设置索引的时候,"createTime":{"type":"date","format":"yyyy-MM-dd HH:mm:ss"},提前设置好了format,但是logstash只提供numberc和timestamp供选择,所以数据库里边datetime类型或者date类型的数据同步通过logstash无法转换成format的格式,所以报此错误

相关文章
|
6月前
|
消息中间件 SQL 关系型数据库
实时计算 Flink版操作报错之错误提示“null column 15 Encountered at line 43”如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
4月前
|
Unix Go 数据库
influxdb: unable to parse points 异常解决总结
influxdb: unable to parse points 异常解决总结
51 3
|
5月前
|
分布式计算 安全 大数据
MaxCompute操作报错合集之创建oss外部表时出现了报错:"Semantic analysis exception - external table checking failure, error message:,该怎么办
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
143 1
|
5月前
|
SQL Web App开发 分布式计算
DataWorks操作报错合集之提示"Catalog Service Failed, ErrorCode: 152, Error Message: ODPS-0110061“,该如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
48 0
|
6月前
|
SQL 关系型数据库 MySQL
实时计算 Flink版操作报错之报错File is not a valid field name 如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
6月前
|
Oracle 关系型数据库 数据库
实时计算 Flink版操作报错合集之错误信息"ORA-65040: operation not allowed from within a pluggable database"如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
330 2
|
5月前
|
弹性计算 人工智能 物联网
Serverless 应用引擎操作报错合集之遇到这个报错:{"ErrorCode":"ResourceThrottled","ErrorMessage":"Reserve resource exceeded limit"}是什么原因
Serverless 应用引擎(SAE)是阿里云提供的Serverless PaaS平台,支持Spring Cloud、Dubbo、HSF等主流微服务框架,简化应用的部署、运维和弹性伸缩。在使用SAE过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
5月前
|
分布式计算 DataWorks 数据库连接
DataWorks操作报错合集之同步脚本报错This error often occurs when a lot dirty data exists in the source data. 是什么原因
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
6月前
|
缓存 DataWorks 监控
DataWorks操作报错合集之修改字段类型时出现 failed: Catalog Service Failed, ErrorCode: 152如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
6月前
|
数据库
Greenplum【异常 03】COPY命令报错 > ERROR: invalid input syntax for type double precision: ““(问题分析及解决方案)数据去重
Greenplum【异常 03】COPY命令报错 > ERROR: invalid input syntax for type double precision: ““(问题分析及解决方案)数据去重
207 0