我正在使用kafka connect cassandra source connector 1.0版本。我在cassandra表中有一个十进制数据类型列(价格),并将其作为json从源连接器写入kafka主题,它正在以类似的字符串格式写入十进制值"price":"AA=="。现在它在我的spark流中给出错误,同时转换为float为“数字格式异常”.... 请在kafka主题中写下值时建议可能出现的问题。
它看起来像Kafka Connect + Decimals中的已知错误。正如问题中所提出的,您需要执行从base64编码的字符串到“的手动”转换BigDecimal:
BigDecimal bigDecimal = new BigDecimal(
new BigInteger(Base64.getDecoder().decode("BfXhAA==")), scale);
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
阿里云NoSQL数据库提供了一种灵活的数据存储方式,可以支持各种数据模型,包括文档型、图型、列型和键值型。此外,它还提供了一种分布式的数据处理方式,可以支持高可用性和容灾备份。包含Redis社区版和Tair、多模数据库 Lindorm、MongoDB 版。