游客nnqbtnagn7h6s_个人页

个人头像照片 游客nnqbtnagn7h6s
个人头像照片
0
129
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
  • 提交了问题 2021-12-06

    Session Window使用event time延迟特别高是怎么回事?

  • 提交了问题 2021-12-06

    sql中使用Create view 报错怎么办?

  • 提交了问题 2021-12-06

    checkpoint失败是怎么回事?

  • 提交了问题 2021-12-06

    使用pyflink的Table api时pyflink udf函数报错怎么办?

  • 提交了问题 2021-12-06

    Flink1.9 yarn session模式 经常Ask timed out怎么办?

  • 提交了问题 2021-12-06

    Flink 有支持类似MR一样支持opts参数的变量替换么?

  • 提交了问题 2021-12-06

    flink无法获取到数据输出怎么办?

  • 提交了问题 2021-12-06

    我在pyflink中使用SQL DDL创建kafka源,总提示创建失败怎么办?

  • 提交了问题 2021-12-06

    在yarn-session模式下怎么用rest api 触发savepoint并停止任务?

  • 提交了问题 2021-12-06

    flink数据sink到mysql 是事务处理怎么解决?

  • 提交了问题 2021-12-06

    flink sql 窗口使用了处理时间滚动窗口方式 但是都是只有5分结束的时候才能把聚合结果输出

  • 提交了问题 2021-12-06

    消费kafka时,是如何实时查看kafka topic的挤压量的?

  • 提交了问题 2021-12-06

    pyflink 嵌套使用函数出错怎么解决?

  • 提交了问题 2021-12-06

    flink sql upsert模式写入mysql,es等key一定是groupby之后所有字段吗?

  • 提交了问题 2021-12-06

    flink1.10整合hbase测试一直报错怎么办?

  • 提交了问题 2021-12-06

    没有设置 chk的存储数默认是多保留多少份呢?

  • 提交了问题 2021-12-06

    想用flink1.10整合hbase,请问一下hadoop,hbase都需要什么版本?

  • 提交了问题 2021-12-06

    Flink SQL create table 关键字 table 加反引号 解析失败怎么办?

  • 提交了问题 2021-12-06

    Flink SQL create table 关键字 table 加反引号 解析失败是什么情况?

  • 提交了问题 2021-12-06

    关于flinksql与mysql维表关联 关于mysql更新的问题 有没有好的方法?

  • 提交了问题 2021-12-06

    如果我放在open 中的规则 有可能发生改变,需要重新更新的话呢?

  • 提交了问题 2021-12-06

    flink1.9 Sql 注册的中间临时表不自动存state的吗?

  • 提交了问题 2021-12-06

    flink 1.9 自定义UDAF 实现state管理的逻辑吗?

  • 提交了问题 2021-12-06

    job已经跑起来了,但是flink的ui页面卡住了是什么原因?

  • 提交了问题 2021-12-06

    flink sql 通过计算列提取字段定义watermark后窗口计算没有结果输出怎么办?

  • 提交了问题 2021-12-06

    flink sink to mysql 是推荐 继承RichSinkFunction的方式吗

  • 提交了问题 2021-12-06

    checkpoint是否可以转化为savepoint

  • 提交了问题 2021-12-06

    flink 用这个命令申请的应该是 2个slot

  • 提交了问题 2021-12-06

    UDF 怎么根据不同的参数返回不同的类型?

  • 提交了问题 2021-12-06

    Flink State 增加字段后 state 还能识别吗?

  • 提交了问题 2021-12-06

    请问 StreamingFileSink如何写数据到其它HA的Hadoop集群

  • 提交了问题 2021-12-06

    Flink新出的OrcBulkWriterFactory有没有大佬给个详细的Demo?

  • 提交了问题 2021-12-06

    请教个问题,流sql如果要group by 只能配合窗口吗?

  • 提交了问题 2021-12-06

    FlinkSQL新增operatoer后基于savepoint重启报错怎么办?

  • 提交了问题 2021-12-06

    flink如何传递全局变量?

  • 提交了问题 2021-12-06

    TTL 支不支持自然日怎么办?

  • 提交了问题 2021-12-06

    程序里面设置了状态失效最晚时间是空闲25分钟,但是运行了几天了还是不理想

  • 提交了问题 2021-12-06

    数据流经过flatmap后并不是返回一个keyedstream ,请问是哪里有问题吗?

  • 提交了问题 2021-12-06

    Flink SQL 作业, 开始运行正常, checkpoint也正常, 执行一段时间后,开始报错,

  • 提交了问题 2021-12-06

    有没有啥办法,可以直接从table_ddl中取最新的kafka数据呢?

  • 提交了问题 2021-12-06

    假设两个算子以相同的字段keyby,它们可以使用相同的StateDescriptor

  • 提交了问题 2021-12-06

    flink分为jobmanger和taskmanager,我怎么区分哪些代码是运行

  • 提交了问题 2021-12-06

    在使用flink sql ddl语句向hbase中写的时候出现报错怎么解决?

  • 提交了问题 2021-12-06

    flink任务checkpoint无法完成snapshot,且报kafka异常怎么回事?

  • 提交了问题 2021-12-06

    请问kafka connector ddl能不能像flinkKafkaConsumer.setSta

  • 提交了问题 2021-12-06

    如何实现多个keytab用户同时生效呢?

  • 提交了问题 2021-12-06

    简单插数etl, 基本的过滤, 窗口. 请问还有没有什么定性定量的方式可以测量框架性能?

  • 提交了问题 2021-12-06

    请问该如何使用DataStreamUtils.reinterpretasKeyedStream?

  • 提交了问题 2021-12-06

    请问该如何使用DataStreamUtils.reinterpretasKeyedStream?

  • 提交了问题 2021-12-06

    Flink希望开发者怎么处理程序的异常?

暂无更多信息
正在加载, 请稍后...
暂无更多信息
  • 回答了问题 2021-12-08

    FLink WEB 怎么加登录验证?

    Flink does not directly support authenticating access to the web UI, but you can always put something like Apache's basic_auth in front of it.*来自志愿者整理的flink邮件归档
    踩0 评论0
  • 回答了问题 2021-12-08

    flink sql太多insert into语句问题

    Hi! 感谢提出问题。方案一应该是最合适的,“算子名称长度超过限制而失败”不是期望行为,具体是什么样的错误栈?*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    Flink sql jdbc Partitioned Scan timestamp不生效

    Hi! scan.partition.lower-bound 和 scan.partition.upper-bound 都是一个 long 值(而不是一个 timestamp 字符串的形式)。它们将会转换成 where between and 的 SQL 语句通过 jdbc 获取数据。可以检查一下配置项的格式和值的范围是否符合期望。*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    flink sql lookup join中维表不可以是视图吗?

    Hi, 如果兩次 left join 的話是否滿足你的需求呢? 然後在取 temporal table 的字段時,用 IF 去判斷取值。參考 SQL 如下 SELECT c.mer_cust_id, IF(k.mer_cust_id IS NOT NULL AND a.mercust_id IS NOT NULL AND k.mer_cust_id <> '', k.update_time, NULL) AS update_time FROM charge_log as c LEFT JOIN ka_mer_info FOR SYSTEM_TIME AS OF c.proc_time AS k ON c.mer_cust_id = k.mer_cust_id LEFT JOIN adp_mer_user_info FOR SYSTEM_TIME AS OF c.proc_time AS a ON c.mer_cust_id = a.mer_cust_id 不過,這種寫法只能適用在兩張 MySQL 表都保證 mer_cust_id 是唯一主鍵的狀況下。如果 mer_cust_id 不是唯一的話,輸出的結果數量會跟原本提供的 SQL 期望的輸出不一致 比如說 ka_mer_info 有 0 筆數據, adp_mer_user_info 有 2 筆數據,原先的 SQL 會得到 1 筆 left join 沒成功的數據,上面提供的 SQL 則會輸出 2 筆。*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    flink访问多个oss bucket问题

    Hi! 如果只是 bucket 不同的话,通过在 with 参数里指定 path 即可。 如果连 ak id 和 secret 都不同,可以考虑实现自己的 com.aliyun.oss.common.auth.CredentialsProvider 接口,并在 flink conf 中指定 fs.oss.credentials.provider 为对应的实现类。*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    谁能解释一下 GlobalStreamExchangeMode 这几种交换模式的不同和使用场景吗?

    这个是可以直接控制内部连边的方式,可以参考一下这个的Java doc。不过这个是一个内部接口,还是建议使用 env.setRuntimeMode(RuntimeExecutionMode.BATCH),这个可以参考一下这个文档: https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/dev/datastream/execution_mode/ 。 public enum GlobalStreamExchangeMode { /** Set all job edges to be {@link ResultPartitionType#BLOCKING}. */ ALL_EDGES_BLOCKING, /** * Set job edges with {@link ForwardPartitioner} to be {@link * ResultPartitionType#PIPELINED_BOUNDED} and other edges to be {@link * ResultPartitionType#BLOCKING}. */ FORWARD_EDGES_PIPELINED, /** * Set job edges with {@link ForwardPartitioner} or {@link RescalePartitioner} to be {@link * ResultPartitionType#PIPELINED_BOUNDED} and other edges to be {@link * ResultPartitionType#BLOCKING}. */ POINTWISE_EDGES_PIPELINED, /** Set all job edges {@link ResultPartitionType#PIPELINED_BOUNDED}. */ ALL_EDGES_PIPELINED, /** Set all job edges {@link ResultPartitionType#PIPELINED_APPROXIMATE}. */ ALL_EDGES_PIPELINED_APPROXIMATE }*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    关于streamFileSink在checkpoint下生成文件问题

    Hi! 邮件里看不到图片和附件,建议使用外部图床。 partFile 文件是不是以英文句点开头的?这是因为 streamingFileSink 写文件的时候还没做 checkpoint,为了保证 exactly once,这些临时写下的 .partFile 文件都是不可见的,需要等 checkpoint 之后才会重命名成可见的文件。*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    flink sql collect函数使用问题

    af里acc为个list,merge的时候合并,输出的时候 list拼成string即可*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    flink结合历史数据怎么处理

    类似jdbc 里面同时进行scan,然后输出。再接流处理呢*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    [DISCUSS] Change some default config values of

    Thanks for starting this discussion Yingjie, How will our tests be affected by these changes? Will Flink require more resources and, thus, will it risk destabilizing our testing infrastructure? I would propose to create a FLIP for these changes since you propose to change the default behaviour. It can be a very short one, though.*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    关于异步 AsyncTableFunction CompletableFuture 的疑问

    Hi! 直接用 futrue.complate(rowdata) 传递数据,只是实现了发送是异步,异步join 得自己实现,这个理解对吗? 正确。例如 HBaseRowDataAsyncLookupFunction 里就调用了 hbase 提供的 table#get 异步方法实现异步查询。 像join hbase 里面通过线程池实现了join异步,是无法保证顺序,并没有看到任何保证顺序的操作,还是有其他逻辑保证顺序吗? Async operator 就是为了提高无需保序的操作(例如很多 etl 查维表就不关心顺序)的效率才引入的,如果对顺序有强需求就不能用 async operator。*来自志愿者整理的flink
    踩0 评论0
  • 回答了问题 2021-12-08

    apache-flink - 在pyflink1.14中聚合函数无法输出的问题

    可能是 watermark 问题:并发多,测试数据少,有些并发没有数据,导致watermark没有增长。 如果是这个原因的话,有两种解决办法: 1)t_env.get_config().get_configuration().set_string('parallelism.default', '1') 2)t_env.get_config().get_configuration().set_string('table.exec.source.idle-timeout', '5000 ms')*来自志愿者整理的flink
    踩0 评论0
  • 提交了问题 2021-12-06

    Session Window使用event time延迟特别高是怎么回事?

  • 提交了问题 2021-12-06

    sql中使用Create view 报错怎么办?

  • 提交了问题 2021-12-06

    checkpoint失败是怎么回事?

  • 提交了问题 2021-12-06

    使用pyflink的Table api时pyflink udf函数报错怎么办?

  • 提交了问题 2021-12-06

    Flink1.9 yarn session模式 经常Ask timed out怎么办?

  • 提交了问题 2021-12-06

    Flink 有支持类似MR一样支持opts参数的变量替换么?

  • 提交了问题 2021-12-06

    flink无法获取到数据输出怎么办?

  • 提交了问题 2021-12-06

    我在pyflink中使用SQL DDL创建kafka源,总提示创建失败怎么办?

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息