其他分享
首页 > 其他分享> > Hive on Spark:解决hive中文乱码

Hive on Spark:解决hive中文乱码

作者:互联网

客户端写入中文,服务端存储中文,客户端查询中文,所以客户端对中文进行编码时,不能乱:


        (1)必须使用可以支持中文编码的字符集:url参数后面添加


            useUnicode=true&characterEncoding=UTF-8


        (2)服务端收到中文后,必须用中文存,设置表的字符集:


            #修改字段注释字符集
            alter table COLUMNS_V2 modify column COMMENT varchar(256) character set utf8;


            #修改表注释字符集
            alter table TABLE_PARAMS modify column PARAM_VALUE varchar(20000) character set utf8;


            #修改分区参数,支持分区建用中文表示
            alter table PARTITION_PARAMS modify column PARAM_VALUE varchar(20000) character set utf8;
            alter table PARTITION_KEYS modify column PKEY_COMMENT varchar(20000) character set utf8;


            #修改索引名注释,支持中文表示
            alter table INDEX_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8;


            #修改视图,支持视图中文
            ALTER TABLE TBLS modify COLUMN VIEW_EXPANDED_TEXT mediumtext CHARACTER SET utf8;
            ALTER TABLE TBLS modify COLUMN VIEW_ORIGINAL_TEXT mediumtext CHARACTER SET utf8;


            
        设置完之后,新写入的会生效,之前写入的还是乱码。

标签:中文,set,utf8,modify,Hive,乱码,hive,table,character
来源: https://blog.csdn.net/weixin_55842692/article/details/122344032