开发者社区 问答 正文

大佬们,Flink读取Hive表类型不匹配如何解决

Inked微信图片_20210122104313_LI.jpg flink是1.9的,hive是1.2.1的,hive表的类型是VARCHAR

展开
收起
游客zbc3slag3whii 2021-01-22 14:17:47 906 分享 版权
1 条回答
写回答
取消 提交回答
  • #hive-mysql字符编码错乱问题 #/etc/my.cnf添加下列字段 然后 service mysqld restart init_connect=‘SET collation_connection = utf8_unicode_ci’ init_connect=‘SET NAMES utf8’ character-set-server=utf8 collation-server=utf8_unicode_ci skip-character-set-client-handshake

    强调的一点:hive的元数据metastore在mysql的数据库,不管是数据库本身,还是里面的表编码都必须是latin1(CHARACTER SET latin1 COLLATE latin1_bin)!!! #hive-site.xml里面的路径 useUnicode=true&haracterEncoding=UTF-8 加入字符码的设定

    javax.jdo.option.ConnectionURL jdbc:mysql://hadoop3:3306/hive?useUnicode=true&haracterEncoding=UTF-8&useSSL=false

    2021-02-03 10:09:38
    赞同 展开评论