分享阿里云全球技术服务部(GTS)团队最佳实践、经典案例与故障排查。
1
回答
1
回答
Flink Datastream作业开发可以参考以下示例:
DataHub DataStream Connector示例:如果通过DataStream的方式读写DataHub数据,则需要使用DataHub DataStream Connector连接Flink全托管。
MaxCompute DataStream Connector示例:如果通过DataStream的方式读写MaxCompute数据,则需要使用MaxCompute DataStream Connector连接Flink全托管。
Kafka DataStream Connector示例:如果通过DataStream的方式以精确一次(Exactly-once)的语义在Kafka Topic中读写数据,则需要使用Kafka DataStream Connector连接Flink全托管。
MySQL CDC DataStream Connector示例:MySQL CDC DataStream Connector支持从全量读取到增量读取的无缝切换,保证数据不重不丢。
Hologres DataStream Connector示例:如果通过DataStream的方式读写Hologres数据,则需要使用Hologres DataStream Connector连接Flink全托管。
RocketMQ DataStream Connector示例:如果通过DataStream的方式读写RocketMQ数据,则需要使用RocketMQ DataStream Connector连接Flink全托管。
动态CEP中规则的JSON格式定义示例:介绍了CEP中规则的JSON格式相关信息。
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
2
回答
1
回答
2
回答
1
回答
1
回答
2
回答
嵌套json想要获取指定字段,只需要在DDL中row去取对应字段的key就可以,前提是这个对应字段的key在数据中一定存在 如果对于那种某些数据中有这个key,某些数据中没有key,这种情况作业运行会报错的,这个需要自行编写udf来解析获取。
更多详情请参见Flink如何获取JSON数据。例如JSON格式的数据,直接用JSON format解析,会被解析成一个 ARRAY<ROW< cola VARCHAR, colb VARCHAR>> 字段,就是一个 Row类型的数组,其中这个Row类型包含两个VARCHAR字段,然后通过UDTF解析。
{
"data":[
{
"cola":"test1",
"colb":"test2"
},
{
"cola":"test1",
"colb":"test2"
},
{
"cola":"test1",
"colb":"test2"
},
{
"cola":"test1",
"colb":"test2"
},
{
"cola":"test1",
"colb":"test2"
}
]
}
3
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
1
回答
2
回答
1
回答
1
回答
1
回答
1
回答
凝聚阿里云多年服务经验,携手合作伙伴与业界专家,匠心打造云服务技术共享!