背景
程序员一提到编码应该都不陌生,像gbk、utf-8、ascii等这些编码更是经常在用,但时不时也会出个乱码,解决问题的方法大部分都是google、baidu一顿搜,最后可能在某个犄角旮旯里找到一点信息,然后就机械的按部就班的模仿下来,结果问题可能真就迎刃而解了,然后就草草了事,下回遇到相似的问题,可能又是重复上面的过程。很少有人有耐心去花精力弄明白这写问题的根本原因,以及解决这些问题的原理是什么。这篇文章就是通过一个实际案例,试着去讲清楚什么是编码,乱码又是怎么产生的,以及如何解决。该案例是从lua_cjson.c这个库开始的,对这个库不熟悉也没关系,也不需要熟悉它,我们只是借用它来说明乱码问题,只需要跟着文章的思路走就可以。
前段时间同事在作一个新项目的时候用到了lua_cjson.c这个库(以下简称cjson),将json串转换成lua本地的数据结构,但是在使用的过程中出现了中文乱码问题,奇怪的是只有那么几个字是乱码,这其中就包括"朶"字,其他字一切正常。经了解json串用的是GBK编码,那问题就来了,为什么用gbk编码会出现这个问题,原因是什么?又应该怎么解决这个问题?
要解释清楚这个问题,首先我们来看看json串都有哪些要求。
JSON规范
json全称JavaScript Object Notion是结构化数据序列化的一个文本,可以描述四种基本类型(strings,numbers,booleans and null)和两种结构类型(objects and arrays)。
RFC4627中有这样一段话
A string is a sequence of zero or more Unicode characters.
字符串有零个或多个unicode字符序列组成.
在这里稍微解释下什么是unicode字符。我们都知道ascii字符有字母、数字等,但是他收录的字只有一百多个。比如汉字就不是ascii字符,但是unicode收录了汉字,所以汉字可以是unicode字符。这里要说明的是unicode字符其实就是一些符号。
现在另一个问题出来了,在json文本中应该怎么表示这些字符。
在规范的Encoding片段是这样说的
JSON text SHALL be encoded in Unicode. The default encoding is UTF-8。
JSON文本SHALL把unicode字符编码。默认使用utf-8编码。
我们看到在这里用到了SHALL[RFC2119]这个关键字,也就是说字符必须被编码后才能作为json串使用。而且默认使用utf-8编码。
如何判断使用的是那种unicode编码呢?
Since the first two characters of a JSON text will always be ASCII characters[RFC0020],
it is possible to determine whether an octet stream is UTF-8、UTF-16(BE or LE), or
UTF-32(BE or LE)by looking at the pattern of nulls in the first four octets.
由于json文本的前两个字符(注意这里说的是字符,不是字节)一定是ASCII字符,因此可以从一个字节
流的前四个字节(注意是字节)中判断出该字节流是UTF-8、UTF-16(BE or LE)、or UTF-32(BE or LE)编码。
00 00 00 xx UTF-32BE (u32编码大端)
xx 00 00 00 UTF-32LE (u32编码小端)
00 xx 00 xx UTF-16BE (u16编码大端)
xx 00 xx 00 UTF-16LE (u16编码小端)
xx xx xx xx UTF-8 (utf-8编码)
ps:
u32用32位的4字节整数表示一个字符;
u16用16位的2字节整数表示一个字符,如果2字节表示不了,就用连续两个16位的2字节整
数表示,所以就会出现u16编码中有4个字节表示一个字符的情况,和u32的四字节不一
样的是,该字符在u16中的前两个字节和后两个字节之间不会有字序的问题。
utf-8用多个8位的1字节序列来表示一个字符,所以没有字序的问题.
截止到现在我们没有看到任何关于可以使用GBK编码的信息,难道json文本就不能用gbk编码吗,如果真的不能用的话,那为什么cjson不是把所有的gbk编码解释称乱码,而是只有某几个字是乱码.
在规范中对json解析器有这样一段描述:
A JSON parser transforms a JSON text into another representation.
A JSON parser MUST accept all texts that conform to the JSON grammar.
A JSON parser MAY accept non-JSON forms or extensions.
json解析器可以将一个json文本转换成其他表示方式。
json解析器MUST接受所有符合json语法的文本.
json解析器MAY接受非json形式或扩展的文本.
乱码的原因
从规范对对解析器的描述可以看到,规范并没有要求解析器必须对文本的编码方式做校验,而且解析器也可以有选择的去接受非json形式的文本。
现在我们再来看看cjson解析器是如何做的,在cjson开头的注释中说了这么一句话:
Invalid UTF-8 characters are not detected and will be passed untouched。
If required, UTF-8 error checking should be done outside this library。
发现无效的UTF-8编码会直接放过,如果有必要对UTF-8编码的检查应该在该库的之外。
说的很清楚,对非utf8编码直接放过,不做任何检查,所以用gbk编码不符合规范,但又可以被解析的答案就出来了。那"朶"等这些字的乱码问题又是怎么回事? 我们现在看看cjson对规范中的另外两个编码utf16、utf32是如何做的,然后再说乱码问题.
在cjson解析方法的开始处是这么做的:
前面我们说过一个json串的前两个字符一定是ascii字符,也就是说一个json串至少也的有两个字节.所以这段代码首先判断json串的长度是不是大于等2,然后根据串的前两个字节的值,是否有零来判断该文本是否是非utf-8编码。结果已经看到了,人家不支持规范上说的u16和u32编码.
现在我们就来看看"朶"这个子是如何变成乱码的,经过对cjson源码的分析得知,cjson在处理字节流的时候当遇见'\'反斜杠时会猜测后一个字节应该是要被转义的字符,比如\b、\r之类的字符,如果是就放行,如果不是,cjson就认为这不是一个正确的json格式,就会把这个字节给干掉,所以本来用两个字节表示的汉子就硬生生的给掰弯了。
那"朶"字跟'\'反斜杠又有什么关系? 查询这两字符在编码中的表示得出:
"朶" 0x965C
"\" 0x5C
这样我们就看到"朶"字的低位字节和"\"字符相同,都是0x5C,如果这时候"朶"字后边不是b、r之类的可以被转移ascii字符,cjson就会把这个字节和紧跟其后的一个字节抹掉,所以乱码就产生了。
那我们应该怎么解决这个问题,让cjson可以顺利的支持gbk编码呢,首先我们看看gbk编码是怎么回事,为什么会出现低位字节和ascii冲突的问题.
GB_编码系列
先来了解一下GB系列的编码范围问题:
GB2312(1980)共收录7445个字符,6763个汉字和682个其他字符。
每个汉字及符号用两个字节表示,为了跟ascii兼容,处理程序使用EUC存储方法。
汉字的编码范围
高字节: 0xB0 - 0xF7,
低字节: 0xA1 - 0xFE,
占用72*94=6768,0xD7FA - 0xD7FE未使用。
GBK共收录21886个字符,采用一字节和双字节编码。
单字节表示范围
8位: 0x0 - 0x7F
双字节表示范围
高字节: 0x81 - 0xFE
低字节: 0x40 - 0x7E、0x80 - 0xFE
GB18030收录70244个汉字,采用1、2、4字节编码。
单字节范围
8位: 0x0 - 0x7F
双字节范围
高字节: 0x81 - 0xFE
低字节: 0x40 - 0xFE
四字节范围
第一字节:0x81 - 0xFE
第二字节:0x30 - 0x39
第三字节:0x81 - 0xFE
第四字节:0x30 - 0x39
由于GB类的编码都是向下兼容的,这里就有一个问题,因为GB2312的两个字节的高位都是1,符合这个条件的码位只有128*128=16384个。GBK和GB18030都大于这个数,所以为了兼容,我们从上面的编码范围看到,这两个编码都用到了低位字节的最高位可以为0的情况。
最终得出的结论就是,在GBK编码中只要该字符是两个字节表示,并且低位字节是0x5C的字符都会被cjson弄成乱码.
解决方案:
1) 不要使用gbk编码,将你的字符串转换成utf-8编码.
2) 对cjson源码稍微做个改动,就是在每个字节到来之前先判断该字节是否大于127,如果大于则将该字节个随后的一个字节放过,否则交给cjson去处理。
番外篇(Unicode和UTF-8,UTF-16,UTF-32区别)
unicode只是一个字符集,UTF-8,UTF-16,UTF-32是unicode的一种编码方式。了解这些编码之间的关系,会让我们对以上介绍的问题有一个更清晰的认识。
首先举个简单的例子来说明字符集和编码的区别,比如我现在定义一个字符集它就收录了"中"、"国"、"人"这三个字符,我们分别用数字1、2、12来表示这三个字符.
那么对于 1212 这一串数字,我们就由好几种解释,分别是:
1,2,12 "中国人"
1,2,1,2 "中国中国"
12,12 "人人"
12,1,2 "人中国"
为了解决这个问题我们现在对这个字符做一个简单,我们在每一个字符代表的数字前面
在加一个数字,用来表示这个字符用了几个数字.编码后的三个字符如下:
11 "中"
12 "国"
212 "人"
然后我们对一个经过编码串 1112212 进行如下解释:
拿到这个串的第一个数字是1,那说明紧跟其后的一个数字代表了一个字符,
拿到这个数字经和字符集对照,该数字代表"中",依次方法逐一分析可的出编码串11 12 212 代表 "中国人"
例子举完了,我们接下来看看UTF-8是如何对unicode编码的
RFC 2279中对UTF-8是这样定义的
在UTF-8编码中,一个Unicode字符可以使用1到6个字节序列对其进行编码。
1)单字节字符,字节的高位为0,其他7位用于字符编码.
2)n节字符(n>1),第一个字节的高n位都为1,紧跟其后n+1位为0。剩下所有字节高两位为10,其余没有占用的位均作为该字符的编码。
具体编码规则如下:
UCS-4范围(16进制) UTF-8(二进制)
---------------------------------------------------
0000 0000-0000 007F 0xxxxxxx
0000 0080-0000 07FF 110xxxxx 10xxxxxx
0000 0800-0000 FFFF 1110xxxx 10xxxxxx 10xxxxxx
0001 0000-001F FFFF 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
0020 0000-03FF FFFF 111110xx 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx
0400 0000-7FFF FFFF 1111110x 10xxxxxx ... 10xxxxxx
RFC 3629对UTF-8做了重新规范
编码规则没变,只是从原来的1到6个字节对unicode编码,变为只能使用1到4个字节对unicode进行编码.
也就是编码范围变成了U+0000到U+10FFFF
具体编码规则如下:
UCS-4范围(16进制) UTF-8(二进制)
---------------------------------------------------
0000 0000-0000 007F 0xxxxxxx
0000 0080-0000 07FF 110xxxxx 10xxxxxx
0000 0800-0000 FFFF 1110xxxx 10xxxxxx 10xxxxxx
0001 0000-001F FFFF 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
编码过程如下:
1)根据要编码的unicode代码点值,确定出要使用的utf-8字节个数n。
2)设置n个字节中每个字节的高位,其余标记为x。
3)从unicode值的最低位开始,依次放入到2)中标记为x的地方,x也是从最低位开始,未使用的x用0填充。
http://www.unicode.org/charts/PDF/U4E00.pdf中可查看汉字代码点.
将"中"字(4E2D,100 111000 101101)编码为UTF-8过程如下:
1)由4E2D可知中字值范围在 0800 - FFFF间,所以需要3个字节.
2)3个字节的utf-8编码形式为: 1110xxxx 10xxxxxx 10xxxxxx
3)从最低位开始填充x,结果为: 11100100 10111000 10101101
从而可以得出,中字的utf-8编码为E4B8AD
unicode转utf-8的例子:
那中文到底在UTF-8编码中用几个字节
从http://www.unicode.org/charts/PDF/U4E00.pdf可以看到,表示中文最小的unicode代码点为4E00,根据以上规则可知,中文在utf-8中最少需要用3个字节表示一个字符。
对其他两种编码方式,以及为什么utf8没字节序的问题而utf-16、utf-32有,这里就不多说了,感兴趣的可以去读RFC 2781(UTF-16)等相关规范。
UTF-16LE(u16的小端表示法)转Unicode的例子:
程序员一提到编码应该都不陌生,像gbk、utf-8、ascii等这些编码更是经常在用,但时不时也会出个乱码,解决问题的方法大部分都是google、baidu一顿搜,最后可能在某个犄角旮旯里找到一点信息,然后就机械的按部就班的模仿下来,结果问题可能真就迎刃而解了,然后就草草了事,下回遇到相似的问题,可能又是重复上面的过程。很少有人有耐心去花精力弄明白这写问题的根本原因,以及解决这些问题的原理是什么。这篇文章就是通过一个实际案例,试着去讲清楚什么是编码,乱码又是怎么产生的,以及如何解决。该案例是从lua_cjson.c这个库开始的,对这个库不熟悉也没关系,也不需要熟悉它,我们只是借用它来说明乱码问题,只需要跟着文章的思路走就可以。
前段时间同事在作一个新项目的时候用到了lua_cjson.c这个库(以下简称cjson),将json串转换成lua本地的数据结构,但是在使用的过程中出现了中文乱码问题,奇怪的是只有那么几个字是乱码,这其中就包括"朶"字,其他字一切正常。经了解json串用的是GBK编码,那问题就来了,为什么用gbk编码会出现这个问题,原因是什么?又应该怎么解决这个问题?
要解释清楚这个问题,首先我们来看看json串都有哪些要求。
JSON规范
json全称JavaScript Object Notion是结构化数据序列化的一个文本,可以描述四种基本类型(strings,numbers,booleans and null)和两种结构类型(objects and arrays)。
RFC4627中有这样一段话
A string is a sequence of zero or more Unicode characters.
字符串有零个或多个unicode字符序列组成.
在这里稍微解释下什么是unicode字符。我们都知道ascii字符有字母、数字等,但是他收录的字只有一百多个。比如汉字就不是ascii字符,但是unicode收录了汉字,所以汉字可以是unicode字符。这里要说明的是unicode字符其实就是一些符号。
现在另一个问题出来了,在json文本中应该怎么表示这些字符。
在规范的Encoding片段是这样说的
JSON text SHALL be encoded in Unicode. The default encoding is UTF-8。
JSON文本SHALL把unicode字符编码。默认使用utf-8编码。
我们看到在这里用到了SHALL[RFC2119]这个关键字,也就是说字符必须被编码后才能作为json串使用。而且默认使用utf-8编码。
如何判断使用的是那种unicode编码呢?
Since the first two characters of a JSON text will always be ASCII characters[RFC0020],
it is possible to determine whether an octet stream is UTF-8、UTF-16(BE or LE), or
UTF-32(BE or LE)by looking at the pattern of nulls in the first four octets.
由于json文本的前两个字符(注意这里说的是字符,不是字节)一定是ASCII字符,因此可以从一个字节
流的前四个字节(注意是字节)中判断出该字节流是UTF-8、UTF-16(BE or LE)、or UTF-32(BE or LE)编码。
00 00 00 xx UTF-32BE (u32编码大端)
xx 00 00 00 UTF-32LE (u32编码小端)
00 xx 00 xx UTF-16BE (u16编码大端)
xx 00 xx 00 UTF-16LE (u16编码小端)
xx xx xx xx UTF-8 (utf-8编码)
ps:
u32用32位的4字节整数表示一个字符;
u16用16位的2字节整数表示一个字符,如果2字节表示不了,就用连续两个16位的2字节整
数表示,所以就会出现u16编码中有4个字节表示一个字符的情况,和u32的四字节不一
样的是,该字符在u16中的前两个字节和后两个字节之间不会有字序的问题。
utf-8用多个8位的1字节序列来表示一个字符,所以没有字序的问题.
截止到现在我们没有看到任何关于可以使用GBK编码的信息,难道json文本就不能用gbk编码吗,如果真的不能用的话,那为什么cjson不是把所有的gbk编码解释称乱码,而是只有某几个字是乱码.
在规范中对json解析器有这样一段描述:
A JSON parser transforms a JSON text into another representation.
A JSON parser MUST accept all texts that conform to the JSON grammar.
A JSON parser MAY accept non-JSON forms or extensions.
json解析器可以将一个json文本转换成其他表示方式。
json解析器MUST接受所有符合json语法的文本.
json解析器MAY接受非json形式或扩展的文本.
乱码的原因
从规范对对解析器的描述可以看到,规范并没有要求解析器必须对文本的编码方式做校验,而且解析器也可以有选择的去接受非json形式的文本。
现在我们再来看看cjson解析器是如何做的,在cjson开头的注释中说了这么一句话:
Invalid UTF-8 characters are not detected and will be passed untouched。
If required, UTF-8 error checking should be done outside this library。
发现无效的UTF-8编码会直接放过,如果有必要对UTF-8编码的检查应该在该库的之外。
说的很清楚,对非utf8编码直接放过,不做任何检查,所以用gbk编码不符合规范,但又可以被解析的答案就出来了。那"朶"等这些字的乱码问题又是怎么回事? 我们现在看看cjson对规范中的另外两个编码utf16、utf32是如何做的,然后再说乱码问题.
在cjson解析方法的开始处是这么做的:
/* Detect Unicode other than UTF-8(see RFC 4627, Sec 3) * * CJSON can support any simple data type, hence only the first * character is guaranteed to be ASCII (at worst:'"'). This is * still enough to detect whether the wrong encoding is in use. */ if (json_len >=2 && (!json.data[0] || !json.data[1])) luaL_error(1,"JSON parser does not support UTF-16 or UTF-32");
前面我们说过一个json串的前两个字符一定是ascii字符,也就是说一个json串至少也的有两个字节.所以这段代码首先判断json串的长度是不是大于等2,然后根据串的前两个字节的值,是否有零来判断该文本是否是非utf-8编码。结果已经看到了,人家不支持规范上说的u16和u32编码.
现在我们就来看看"朶"这个子是如何变成乱码的,经过对cjson源码的分析得知,cjson在处理字节流的时候当遇见'\'反斜杠时会猜测后一个字节应该是要被转义的字符,比如\b、\r之类的字符,如果是就放行,如果不是,cjson就认为这不是一个正确的json格式,就会把这个字节给干掉,所以本来用两个字节表示的汉子就硬生生的给掰弯了。
那"朶"字跟'\'反斜杠又有什么关系? 查询这两字符在编码中的表示得出:
"朶" 0x965C
"\" 0x5C
这样我们就看到"朶"字的低位字节和"\"字符相同,都是0x5C,如果这时候"朶"字后边不是b、r之类的可以被转移ascii字符,cjson就会把这个字节和紧跟其后的一个字节抹掉,所以乱码就产生了。
那我们应该怎么解决这个问题,让cjson可以顺利的支持gbk编码呢,首先我们看看gbk编码是怎么回事,为什么会出现低位字节和ascii冲突的问题.
GB_编码系列
先来了解一下GB系列的编码范围问题:
GB2312(1980)共收录7445个字符,6763个汉字和682个其他字符。
每个汉字及符号用两个字节表示,为了跟ascii兼容,处理程序使用EUC存储方法。
汉字的编码范围
高字节: 0xB0 - 0xF7,
低字节: 0xA1 - 0xFE,
占用72*94=6768,0xD7FA - 0xD7FE未使用。
GBK共收录21886个字符,采用一字节和双字节编码。
单字节表示范围
8位: 0x0 - 0x7F
双字节表示范围
高字节: 0x81 - 0xFE
低字节: 0x40 - 0x7E、0x80 - 0xFE
GB18030收录70244个汉字,采用1、2、4字节编码。
单字节范围
8位: 0x0 - 0x7F
双字节范围
高字节: 0x81 - 0xFE
低字节: 0x40 - 0xFE
四字节范围
第一字节:0x81 - 0xFE
第二字节:0x30 - 0x39
第三字节:0x81 - 0xFE
第四字节:0x30 - 0x39
由于GB类的编码都是向下兼容的,这里就有一个问题,因为GB2312的两个字节的高位都是1,符合这个条件的码位只有128*128=16384个。GBK和GB18030都大于这个数,所以为了兼容,我们从上面的编码范围看到,这两个编码都用到了低位字节的最高位可以为0的情况。
最终得出的结论就是,在GBK编码中只要该字符是两个字节表示,并且低位字节是0x5C的字符都会被cjson弄成乱码.
解决方案:
1) 不要使用gbk编码,将你的字符串转换成utf-8编码.
2) 对cjson源码稍微做个改动,就是在每个字节到来之前先判断该字节是否大于127,如果大于则将该字节个随后的一个字节放过,否则交给cjson去处理。
番外篇(Unicode和UTF-8,UTF-16,UTF-32区别)
unicode只是一个字符集,UTF-8,UTF-16,UTF-32是unicode的一种编码方式。了解这些编码之间的关系,会让我们对以上介绍的问题有一个更清晰的认识。
首先举个简单的例子来说明字符集和编码的区别,比如我现在定义一个字符集它就收录了"中"、"国"、"人"这三个字符,我们分别用数字1、2、12来表示这三个字符.
那么对于 1212 这一串数字,我们就由好几种解释,分别是:
1,2,12 "中国人"
1,2,1,2 "中国中国"
12,12 "人人"
12,1,2 "人中国"
为了解决这个问题我们现在对这个字符做一个简单,我们在每一个字符代表的数字前面
在加一个数字,用来表示这个字符用了几个数字.编码后的三个字符如下:
11 "中"
12 "国"
212 "人"
然后我们对一个经过编码串 1112212 进行如下解释:
拿到这个串的第一个数字是1,那说明紧跟其后的一个数字代表了一个字符,
拿到这个数字经和字符集对照,该数字代表"中",依次方法逐一分析可的出编码串11 12 212 代表 "中国人"
例子举完了,我们接下来看看UTF-8是如何对unicode编码的
RFC 2279中对UTF-8是这样定义的
在UTF-8编码中,一个Unicode字符可以使用1到6个字节序列对其进行编码。
1)单字节字符,字节的高位为0,其他7位用于字符编码.
2)n节字符(n>1),第一个字节的高n位都为1,紧跟其后n+1位为0。剩下所有字节高两位为10,其余没有占用的位均作为该字符的编码。
具体编码规则如下:
UCS-4范围(16进制) UTF-8(二进制)
---------------------------------------------------
0000 0000-0000 007F 0xxxxxxx
0000 0080-0000 07FF 110xxxxx 10xxxxxx
0000 0800-0000 FFFF 1110xxxx 10xxxxxx 10xxxxxx
0001 0000-001F FFFF 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
0020 0000-03FF FFFF 111110xx 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx
0400 0000-7FFF FFFF 1111110x 10xxxxxx ... 10xxxxxx
RFC 3629对UTF-8做了重新规范
编码规则没变,只是从原来的1到6个字节对unicode编码,变为只能使用1到4个字节对unicode进行编码.
也就是编码范围变成了U+0000到U+10FFFF
具体编码规则如下:
UCS-4范围(16进制) UTF-8(二进制)
---------------------------------------------------
0000 0000-0000 007F 0xxxxxxx
0000 0080-0000 07FF 110xxxxx 10xxxxxx
0000 0800-0000 FFFF 1110xxxx 10xxxxxx 10xxxxxx
0001 0000-001F FFFF 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
编码过程如下:
1)根据要编码的unicode代码点值,确定出要使用的utf-8字节个数n。
2)设置n个字节中每个字节的高位,其余标记为x。
3)从unicode值的最低位开始,依次放入到2)中标记为x的地方,x也是从最低位开始,未使用的x用0填充。
http://www.unicode.org/charts/PDF/U4E00.pdf中可查看汉字代码点.
将"中"字(4E2D,100 111000 101101)编码为UTF-8过程如下:
1)由4E2D可知中字值范围在 0800 - FFFF间,所以需要3个字节.
2)3个字节的utf-8编码形式为: 1110xxxx 10xxxxxx 10xxxxxx
3)从最低位开始填充x,结果为: 11100100 10111000 10101101
从而可以得出,中字的utf-8编码为E4B8AD
unicode转utf-8的例子:
static int codepoint_to_utf8(char *utf8, int codepoint) { /* 0xxxxxxx */ if (codepoint <= 0x7F) { utf8[0] = codepoint; return 1; } /* 110xxxxx 10xxxxxx */ if (codepoint <= 0x7FF) { utf8[0] = (codepoint >> 6) | 0xC0; utf8[1] = (codepoint & 0x3F) | 0x80; return 2; } /* 1110xxxx 10xxxxxx 10xxxxxx */ if (codepoint <= 0xFFFF) { utf8[0] = (codepoint >> 12) | 0xE0; utf8[1] = ((codepoint >> 6) & 0x3F) | 0x80; utf8[2] = (codepoint & 0x3F) | 0x80; return 3; } /* 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx */ if (codepoint <= 0x1FFFFF) { utf8[0] = (codepoint >> 18) | 0xF0; utf8[1] = ((codepoint >> 12) & 0x3F) | 0x80; utf8[2] = ((codepoint >> 6) & 0x3F) | 0x80; utf8[3] = (codepoint & 0x3F) | 0x80; return 4; } return 0; }
那中文到底在UTF-8编码中用几个字节
从http://www.unicode.org/charts/PDF/U4E00.pdf可以看到,表示中文最小的unicode代码点为4E00,根据以上规则可知,中文在utf-8中最少需要用3个字节表示一个字符。
对其他两种编码方式,以及为什么utf8没字节序的问题而utf-16、utf-32有,这里就不多说了,感兴趣的可以去读RFC 2781(UTF-16)等相关规范。
UTF-16LE(u16的小端表示法)转Unicode的例子:
#include <stdio.h> void decode_utf_16le(char *cc,int length); int main(int argc ,char **argv){ //utf-16le编码 unidoce值 //朱: 0x3167 6731 //, : 0x2C00 2C //聿:0x7F80 807F // : 0x69D8A5DE 2A6A5 char cc[10] = {'\x31','\x67','\x2C','\x00','\x7F','\x80','\x69','\xD8','\xA5','\xDE'}; decode_utf_16le(cc,10); } /* *解码utf_16le并打印 */ void decode_utf_16le(char *cc,int length){ int index = 0; while(index < length){ //0xD800 1101 1000 0000 0000 //0xDFFF 1101 1111 1111 1111 //0xDC00 1101 1100 0000 0000 unsigned short w1 = 0; unsigned short w2 = 0; if((index+1)>=length){ printf("2数组越界"); return; } short w1_h = cc[index+1]; //高8位 short w1_l = cc[index]; //低8位 w1 = ((w1_h << 8 & 0xFF00)+(w1_l & 0xFF)); //两个字节表示一个字符 if(w1 < 0xD800 || w1 > 0xDFFF){ printf("%04X\n",w1 & 0xFFFF); index +=2; continue; } //四个字节表示一个字符 if(!(w1 > 0xD800 && w1 < 0xDFFF)){ //非法字符 printf("%04X\n",w1 & 0xFFFF); index += 2; //越过该非法字符 return; } if((index+3) >= length){ printf("4数组越界"); return; } short w2_h = cc[index+3]; //高8位 short w2_l = cc[index+2]; //低8位 w2 = (w2_h << 8 & 0xFF00) + (w2_l & 0xFF); if(!(w2 > 0xDC00 && w2 < 0xDFFF)){ //非法字符 printf("%04X\n",w1 & 0xFFFF); index += 4; //越过该非法字符 return; } w1 = w1 & 0x3FF; //取10位 w2 = w2 & 0x3FF; //取10位 long u = (w1 << 10) + w2 + 0x10000; //unicode printf("%08X\n",u & 0xFFFFFFFF); index += 4; } }
相关推荐
编码、字符、字符集和乱码处理...在处理编码和乱码问题时,需要对编码原理有清晰的理解,结合具体的使用场景选择合适的编码和字符集,同时注意编码的转换过程和规则。只有这样,才能保证信息的准确传递和数据的一致性。
在IT领域,编码和乱码问题常常困扰着开发者和用户。尤其在涉及到多语言环境、数据传输或存储时,理解并正确处理各种编码格式显得至关重要。本文将详细讲解常见的编码类型,以及如何处理可能出现的乱码问题,主要针对...
标题提到的“解决gb2312编码导致乱码问题”是一个典型的字符编码问题,它涉及到如何在不同的编码格式之间正确转换,以确保中文字符在传输和显示时的正确性。gb2312是一种较老的中文字符编码标准,主要用于简体中文,...
"乱码问题的解决" 在 Web 开发中,乱码问题是常见的...乱码问题的解决需要从多方面入手,包括设置页面编码、服务器编码、客户端编码、数据库编码和超链接的 url 编码等。只有通过统一编码,才能避免乱码问题的出现。
总之,理解JavaScript中的字符编码和乱码问题对于开发者来说至关重要。正确处理字符编码能确保代码的稳定性和兼容性,避免乱码带来的困扰。通过指定编码、使用TextDecoder API、正确处理DOM操作以及使用第三方库,...
这些问题产生的根本原因在于Windows系统默认使用GBK编码,而Linux系统和Qt编译器默认使用UTF-8编码,当使用GBK编码的代码文件被UTF-8编码的编译器解释时就会出现乱码。 为了解决这个问题,首先需要改变开发环境中的...
解决JSP乱码问题的关键在于理解和协调各种编码设置,确保从客户端到服务器端再到浏览器的整个过程中,字符集始终保持一致。了解这些原理和解决方案,可以帮助开发者避免因编码问题引发的诸多不便。
jsp编码乱码问题是jsp开发中常见的问题之一,该问题可能会导致jsp页面显示乱码,影响用户体验。因此,了解jsp编码的原理和解决乱码问题的方法是非常重要的。 jsp编码的原理 jsp编码是指jsp页面中的编码方式,jsp...
在使用SAS EG(Enterprise Guide)导入编码为UTF-8的文本数据文件时,用户可能会遇到中文乱码问题。UTF-8编码的文本文件在处理中文字符时,如果没有正确设置编码,可能会导致中文字符显示不正确,即出现乱码现象。...
JSP编码中乱码问题.doc 叫你怎么解决jsp编码中出现的各种中文乱码的解决办法
JSP 中文乱码问题的成因主要有两方面,一是 Java 和 JSP 文件本身编译时产生的乱码问题,二是 Java 程序于其他媒介交互产生的乱码问题。 Java 和 JSP 文件编译时产生的乱码问题 Java 和 JSP 源文件中可能包含有...
这主要涉及到字符编码的处理,涉及到Unicode、GBK、UTF-8等不同编码格式之间的转换和一致性问题。本篇文章将深入探讨这个问题,并提供一种彻底解决中文乱码问题的方法。 首先,我们需要理解什么是乱码。乱码通常...
综上所述,解决Ubuntu与Windows在文件处理时出现的乱码问题主要包括转换文件编码和使用特定的工具来处理。iconv命令用于内容编码转换,而convmv是处理文件名编码转换的利器。对于zip和rar压缩文件,可以分别使用7-...
解决Identity-H编码乱码问题通常涉及以下几个步骤: 1. **检查字体资源**:确保PDFBox能够访问并正确解析字体文件。PDF文档中可能引用了特定的字体,比如Arial或Times New Roman,而系统中必须有这些字体的TrueType...
总的来说,解决编码乱码问题的关键在于理解字符编码的概念,正确配置和处理编码,以及在不同组件间保持一致性。对于开发者来说,掌握这些技巧不仅能解决眼前的问题,还能提升对跨平台、跨语言编程的理解,从而提高...
中文乱码问题是 Java 和 JSP 开发中的一种常见问题,主要是由于 Java 和 JSP 源文件的保存方式是基于字节流的,而编译成 class 文件过程中,使用的编码方式与源文件的编码不一致所致。在 Java 文件中,尽量不要写...
### 乱码问题与编码方式解决方案 在计算机科学与信息技术领域中,字符编码是一个至关重要的概念,它直接关系到文本数据的正确存储、传输与显示。本文将针对标题中的几种常见编码格式(GBK、ISO 8859-1、UTF-8)以及...
解决Hadoop中文乱码问题的关键在于识别和匹配数据的正确编码,并在Hadoop组件和工具中设置相应的编码选项。在实际操作中,可能需要结合日志信息和源码调试来定位问题。同时,建立良好的编码规范,统一数据的编码格式...