![个人头像照片](https://ucc.alicdn.com/avatar/avatar3.jpg)
开发者社区问答官方账号
2024年06月
impala 开了kerberos 服务异常,看日志报错:E0507 13:28:59.923395 3781888 authentication.cc:239] SASL message (Kerberos (internal)): Couldn't find mech GSSAPI
这个报错是kerberos配错了,检查kdc和服务的配置以及keytab文件的有效性
KDC配置文件一般在/etc/krb5.conf或者find / -name 查找下
有效性通过:使用kinit
命令测试keytab文件:
kinit -kt xxxx_keytab.keytab xx_principal@YOUR.REALM
来初始化客户端凭据metastore为dlf不允许大写,filesystem支持。
arms只能通过钉钉机器人的方式发送钉钉告警,不能通过DingTalk的形式。
0.7版本是支持update语句的,建议在spark上修改以下这两个参数:
spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog
spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions
请确认CDC消费是否在全量阶段,设置的并发数据是否过大或设置连接池Size过大,占用了大量的连接数。
建议降低作业并发数,降低连接池Size大小或优化sql逻辑是否可以使用CDAS来复用连接。
可以使用MMM表示月份简写。例如TO_TIMESTAMP('08/Mar/2024 06:43:22', 'dd/MMM/yyyy HH:mm:ss')
执行实时flink任务,通过streamload方式写入数据到starrocks表中报错:DorisSinkException: Stream Load Status [Fail], Message [no valid Basic authorization].Detail [No ErrorURL Found]
其中flink代码中的url地址写的是starrocks集群的fe节点公网ip+端口
Stream Load是一种通过HTTP协议进行PUT操作,将数据导入到Doris。数据导入是同步操作,导入完成会返回成功或失败的response。执行流程为:
其中,在FE重定向到作为Coordinator的BE过程中,python的requests虽然可以自动实现重定向到Coordinator,但是不能携带账号和密码进行认证,会报异常:no valid Basic authorization。
因此可以从如下2方面避免该问题:
Hologres中不可以设置qps的限制,qps是体现业务的指标,只能业务端控制。
创建镜像时勾选了保留用户数据,一个用户目录是当前登录云电脑的用户,另外一个用户目录是创建自定义镜像的云电脑登录的用户目录。
可参考MySQL WITH 参数文档。
1. 存储侧存在性能瓶颈,例如adb实例cpu较高等。
2. flink写入AnalyticDB是使用的攒批的方式,可通过增加攒批参数,参考文档。
3. 可以通过调整Sink节点并行度来增加写入速度.
后端压力不大,但是压测时已经大量报错或者超时。
一般这种情况,是服务的最外层(即网络接入层)存在瓶颈或者触发了某些阈值导致的。
请务必对已经使用网络接入层(网络入口)的产品进行监控观察。常见的产品类型和响应的注意事项如下: