经常我们打开外国网站的时候出现乱码,又或者打开很多非英语的外国网站的时候,显示的都是口口口口口的字符,
WordPress程序是用的UTF-8,很多cms用的是GB2312。
● 为什么有这么多编码?
● UTF-8和GB2312有什么区别?
● 我们在国内做网站是用UTF-8编码格式还是GB2312编码格式好?
一. 各种编码的来历
可能很多同学一直对字符的各种编码方式懵懵懂懂,根本搞不清为什么他们有这么多编码。
ANSI编码
其实在很久很久以前,有一群人,他们决定用8个可以开合的晶体管来组合成不同的状态,以表示世界上的万物。他们看到8个开关状态是好的,于是他们把这称为“字节”。
开始计算机只在美国用。八位的字节一共可以组合出256(2的8次方)种不同的状态。
他们把其中的编号从0开始的32种状态分别规定了特殊的用途,一但终端、打印机遇上约定好的这些字节被传过来时,就要做一些约定的动作。
遇上00×10,终端就换行,遇上0×07, 终端就向人们嘟嘟叫,例好遇上0×1b, 打印机就打印反白的字,或者终端就用彩色显示字母。他们看到这样很好,于是就把这些0×20以下的字节状态称为"控制码"。
他们又把所有的空格、标点符号、数字、大小写字母分别用连续的字节状态表示,一直编到了第127号,这样计算机就可以用不同字节来存储英语的文字了。大家看到这样,都感觉很好,于是大家都把这个方案叫做 ANSI 的"Ascii"编码(American Standard Code for Information Interchange,美国信息互换标准代码)。当时世界上所有的计算机都用同样的ASCII方案来保存英文文字。
扩展ANSI编码
后来,就像建造巴比伦塔一样,世界各地的都开始使用计算机,但是很多国家用的不是英文,他们的字母里有许多是ASCII里没有的,为了可以在计算机保存他们的文字,他们决定采用127号之后的空位来表示这些新的字母、符号,还加入了很多画表格时需要用下到的横线、竖线、交叉等形状,一直把序号编到了最后一个状态255。从128到255这一页的字符集被称“扩展字符集”。从此之后,贪婪的人类再没有新的状态可以用了,美国当时估计也没想到还有别的国家要用计算机的。
GB2312编码
当天朝人们得到计算机时,已经没有可以利用的字节状态来表示汉字,况且有6000多个常用汉字需要保存呢。天朝人民就不客气地把那些127号之后的奇异符号们直接取消掉。
规定:一个小于127的字符的意义与原来相同,但两个大于127的字符连在一起时,就表示一个汉字,前面的一个字节(他称之为高字节)从0xA1用到0xF7,后面一个字节(低字节)从0xA1到0xFE,这样我们就可以组合出大约7000多个简体汉字了。
在这些编码里,我们还把数学符号、罗马希腊的字母、日文的假名们都编进去了,连在 ASCII 里本来就有的数字、标点、字母都统统重新编了两个字节长的编码,这就是常说的“全角”字符,而原来在127号以下的那些就叫"半角"字符了。于是就把这种汉字方案叫做 “GB2312”。GB2312 是对 ASCII 的中文扩展。
GBK 和 GB18030编码
但是天朝的汉字太多了,我们很快就就发现有许多人的人名没有办法在这里打出来,特别是某些天朝领导的名字要是打不出很麻烦的。于是我们不得不继续把 GB2312 没有用到的码位找出来老实不客气地用上。
后来还是不够用,于是干脆不再要求低字节一定是127号之后的内码,只要第一个字节是大于127就固定表示这是一个汉字的开始,不管后面跟的是不是扩展字符集里的内容。结果扩展之后的编码方案被称为 GBK 标准,GBK 包括了 GB2312 的所有内容,同时又增加了近20000个新的汉字(包括繁体字)和符号。
后来少数民族也要用电脑了,于是我们再扩展,又加了几千个新的少数民族的字,GBK 扩成了 GB18030。从此之后,天朝民族的文化就可以在计算机时代中传承了。
在这个标准里,最大的特点是两字节长的汉字字符和一字节长的英文字符并存于同一套编码方案里,因此他们写的程序为了支持中文处理,必须要注意字串里的每一个字节的值,如果这个值是大于127的,那么就认为一个双字节字符集里的字符出现了。
那时候凡是受过编程学习的程序员都要每天念下面这个咒语数百遍的折磨:
“一个汉字算两个英文字符!一个汉字算两个英文字符……”
UNICODE编码
因为当时各个国家都像天朝这样搞出一套自己的编码标准,结果互相之间谁也不懂谁的编码,谁也不支持别人的编码,连大陆和台湾这样只相隔了150海里,使用着同一种语言的兄弟地区,也分别采用了不同的编码方案:
当时的天朝人想让电脑显示汉字,就必须装上一个“汉字系统”。专门用来处理汉字的显示、输入的问题。
但是那个装台湾的人士写的程序就必须加装另一套支持 BIG5 编码的“倚天汉字系统”才可以用,装错了字符系统,显示就会乱了套!这怎么办?而且世界民族中还有那些暂时用不上电脑的穷苦人民,他们的文字又怎么办?
正在这时,天使及时出现了——一个叫 ISO (国际标谁化组织)的国际组织决定着手解决这个问题。他们采用的方法很简单:废了所有的地区性编码方案,重新搞一个包括了地球上所有文化、所有字母和符号的编码!他们打算叫它 UCS, 俗称 UNICODE 。( Universal Multiple-Octet Coded Character Set )
在UNICODE 中,一个汉字算两个英文字符的时代已经快过去了。
无论是半角的英文字母,还是全角的汉字,它们都是统一的“一个字符”!同时,也都是统一的“两个字节"”
UTF-8和UTF-16
UNICODE 来到时,一起到来的还有计算机网络的兴起,UNICODE 如何在网络上传输也是一个必须考虑的问题,于是面向传输的众多 UTF(UCS Transfer Format)标准出现了,顾名思义,UTF8就是每次8个位传输数据,而UTF16就是每次16个位,只不过为了传输时的可靠性,从UNICODE到UTF时并不是直接的对应,而是要过一些算法和规则来转换。
未来的UCS-4
如前所述,UNICODE 是用两个字节来表示为一个字符,他总共可以组合出65535不同的字符,这大概已经可以覆盖世界上所有文化的符号。如果还不够也没有关系,ISO已经准备了UCS-4方案,说简单了就是四个字节来表示一个字符,这样我们就可以组合出21亿个不同的字符出来(最高位有其他用途),这大概可以用到天朝成立银河联邦成立那一天吧!
二. 为什么有些网站打开有时候会是乱码
网页乱码是浏览器(如IE等)对HTML网页解释时形成的。
如果在浏览网站网页的代码写错语系(比较少见),有形如:
<HTML>
<HEAD>
<META CONTENT=“text/html;charset=ISO-8859-1”></HEAD>……
</HTML>
的语句,浏览器在显示此页时,就会出现乱码。因为浏览器会将此页语种辨认为“欧洲语系”。
解决的办法是将语种“ISO-8859-1”改为GB2312,如果是繁体网页则改为BIG5。
还有一种可能比较大,就是网页并没有标明他用的是何种语系,即没有
<META CONTENT=“text/html;charset=XXXXX“>,这一行。
而你的计算机默认也不是这种语系,比方我们访问某些日文网站,经常出现这个问题。这个主要是由于程序员是面向当地的人开发的网站,由于当地都是默认语系,所以没有乱码种情况,而你是外来人,你的操作系统本身默认不是当地的语系。所以要手动改语系。
至于出现口口口口口口这种情况
这是由于网站并没有采用UTF-8编码而是采用的当地的编码,如蒙古语的,阿拉伯语的编码,你的计算机中并没有这种编码,所以不能识别。
解决办法是,事先为浏览器安装多语言支持包(例如在安装IE时要安装多语言支持包),这样在浏览网页出现乱码时,就可以在浏览器中选择菜单栏下的“查看”/“编码”/“自动选择”/蒙古),如为繁体中文则选择“查看”/“编码”/“自动选择”/阿拉伯语,其它语言依此类推选择相应的语系,这样可消除网页乱码现象。
三. 目前开发网站用什么编码比较好
我们一般通俗的理解为:
UTF-8是世界性通用代码,也完美的支持中文编码,如果我们做的网站能让国外用户正常的访问,就最好用UTF-8。
GB2312属于中文编码,主要针对国内用户使用,如果国外用户访问GB2312编码的网站就会变乱码。
网友的反馈一般觉得是用UTF-8比GB2312要多很多,大家都比较赞同用UTF-8。
从一张外国网站的调查也可看得出:
由此图可以看出,2001-2008年期间,GB2312编码的使用情况虽然幅度不大,但还是在稳定上升的;蓝色的线表示出用UTF-8的网站越来越多了。
我挑选了国内部分几个大的门户网站,看看他们用的是哪种编码格式:
也许有同学就会问了为什么国内几个网站用GB2312反而更多些呢。
我也对这个疑问进行了思考,我觉得。应该有3种原因:
1. 国内这些网站本身历史也比较长,开始使用的就是 GB2312编码,现在改成 UTF-8(以前的网页)转换的难度和风险太大。
2. UTF-8编码的文件比GB2312更占空间一些,虽然目前的硬件环境下可以忽略,但是这些门户网站为了减少服务器负载基本上所有的页面都生成了静态页,UTF-8保存起来文件会比较大,对于门户级别的网站每天生成的文件量还是非常巨大,带来的存储成本相应提高。
3. 由于UTF-8的编码比GB2312解码的网络传输数据量要大,对于门户级别的网站来说。这个无形之间就要增大带宽,用GB2312对网络流量无疑是最好的优化。
所以在新做站的情况下,建议还是选择UTF-8比较好。因为没有上面那些原因,兼容为上策。
详细出处参考:http://www.jb51.net/web/25623.html
分享到:
相关推荐
一直对字符的各种编码方式懵懵懂懂,什么ANSI UNICODE UTF-8 GB2312 GBK DBCS UCS……是不是看的很晕,假如您细细的阅读本文你一定可以清晰的理解他们
网络编码的由来及其核心概念 网络编码,作为现代通讯技术的重要组成部分,其起源和发展历程充满着学术探索的戏剧性和创新精神。李硕彦、张震、杨伟豪和蔡宁等人在这一领域的贡献尤为突出,他们通过深入研究,不仅...
#### 一、各种编码的来历及发展 1. **ANSI编码**:最早的计算机仅在美国使用,8位字节(共256种状态)被用来表示各种字符。其中0-31以及127(共33个)为控制字符或功能字符,如换行、退格等;32-126(共95个)用于...
#### 一、编码问题的由来及相关概念理解 ##### 1.1 字符与编码的发展历程 字符编码的历史可以追溯到计算机发展的早期阶段,当时计算机仅能支持英语,即ASCII(American Standard Code for Information Interchange...
本文将详细介绍GB2312-80与BIG5这两种常见的汉字编码规则,并探讨它们的由来和发展历程。 #### 二、GB2312-80编码规则 GB2312-80是中国大陆制定的第一个汉字编码国家标准,发布于1980年。该标准定义了6763个汉字的...
编译码过程中,LDPC码将信息比特表示为稀疏校验矩阵,这些矩阵具有较低的密度(大部分元素为零),使得校验过程只需少量计算即可完成,这便是其“低密度”名称的由来。密度进化理论是描述迭代译码过程中错误概率演化...
##### 2.7 图像编码失真的由来 图像编码失真主要来源于量化过程中的信息丢失。由于量化过程会将连续的DCT系数转换为有限个级别,因此会导致图像质量的损失。此外,如果量化步长过大,则可能会引入明显的块效应。 #...
#### 编码问题的由来与概念理解 **1.1 字符与编码的发展** 计算机对多国语言的支持经历了三个主要阶段:ASCII、多字节字符(MBCS)和Unicode。早期的ASCII阶段,每个字符仅占用一个字节,适用于英语等拉丁字母为主...
2.8.2. 各种中文字符编码标准的关系 2.9. 字符存储(交换)标准 2.10. 字形和你所看到的字符的关系 参考书目 A. 编码相关的表格 A.1. ASCII编码表(0-127) A.2. ISO/IEC 8859编码标准中的15种字符集 A.3. Code Page...
麻省理工学院权威的关于网络编码的PPT,详细介绍了网络编码的由来,综述了网络编码的最新研究成果。是研究网络编码必看的资料!!!
《编码的奥秘》一书以生动有趣的方式,讲述了编码的来历及其在历史上的应用。本书首先通过“电筒密谈”的例子引入话题,这是一个关于两个孩子利用手电筒在夜间进行秘密交流的故事。这个简单的例子揭示了编码的基本...
#### 一、Base64编码的来历与组成 Base64是一种常用的二进制到文本字符串的编码方式,主要用于在电子邮件等环境中传输二进制数据。由于许多邮件服务器不支持二进制数据的传输,因此Base64被广泛应用于将二进制数据...
计算机要准确的处理各种字符集文字,需要进行字符编码,以便计算机能够识别和存储各种文字。中文文字数目大,而且还分为简体中文和繁体中文两种不同书写规则的文字,而计算机最初是按英语单字节字符设计的,因此,对...
编码工作可能包括前端界面的实现、后端逻辑的编写、数据库的交互以及各种接口的集成。团队成员需要协同工作,通过版本控制工具如Git进行代码管理,以避免冲突并追踪改动。同时,代码审查也是保证质量的重要环节,...
在本压缩包中,你将找到一系列关于密码编码学的珍贵资源,这些资料可以帮助你深入理解和掌握这个领域的核心概念。 密码编码学的研究内容广泛,主要包括以下几个方面: 1. **密码的历史**:从古代的密码棒到现代的...
本文将从头讲解编码的故事,包括 Unicode、Ascii、utf-8、GB2312、GBK 等编码标准的由来和发展。 首先,让我们从基本的概念开始。计算机使用字节来存储信息,而字节是由 8 个可以开合的晶体管组合成的。这些字节...
MISRA编码标准主要包含两部分:编码风格的统一和安全编程的指导。编码风格的统一可以提高代码的可读性和团队协作效率,而安全编程指导则通过定义一组规则,防止程序员使用可能导致错误的编程结构。例如,禁止使用K&R...
Unicode是一种统一的字符编码标准,旨在兼容全球各种语言的字符。它使用唯一的数字来标识每一个字符,避免了编码冲突。Unicode有多种编码实现,其中最常见的是UTF-8。UTF-8编码是变长编码,根据字符的复杂程度使用1...