很久很久以前,有一群人,他们决定用8个可以开合的晶体管来组合成不同的状态,以表示世界上的万物。他们看到8个开关状态是好的,于是他们把这称为”字节“。再后来,他们又做了一些可以处理这些字节的机器,机器开动了,可以用字节来组合出很多状态,状态开始变来变去。他们看到这样是好的,于是它们就这机器称为”计算机“。
**so: 字节是是计算机信息计量单位,一个字节包含八个bit。**bit是计算机存储数据的最小单位,只有0和1两种值。而8个bit组成了信息的最小单位,也就是字节。8位的字节一共可以组合出256(2的8次方)种不同的状态。
ASCII方案 : 开始计算机只在美国用。八位的字节一共可以组合出256(2的8次方)种不同的状态。 他们把其中的编号从0开始的32种状态分别规定了特殊的用途,一但终端、打印机遇上约定好的这些字节被传过来时,就要做一些约定的动作。遇上0×10, 终端就换行,遇上0×07, 终端就向人们嘟嘟叫,例好遇上0x1b, 打印机就打印反白的字,或者终端就用彩色显示字母。他们看到这样很好,于是就把这些0×20以下的字节状态称为”控制码”。他们又把所有的空 格、标点符号、数字、大小写字母分别用连续的字节状态表示,一直编到了第127号,这样计算机就可以用不同字节来存储英语的文字了。大家看到这样,都感觉 很好,于是大家都把这个方案叫做 ANSI 的”Ascii”编码(American Standard Code for Information Interchange,美国信息互换标准代码)。当时世界上所有的计算机都用同样的ASCII方案来保存英文文字。
标准ASCII 码也叫基础ASCII码,使用7 位二进制数(剩下的1位二进制为0)来表示所有的大写和小写字母,数字0 到9、标点符号
128 到255这一页的字符集被称”扩展字符集“。
0~31及127(共33个)是控制字符或通信专用字符,**如控制符:LF(换行)、CR(回车)、FF(换页)、DEL(删除)、BS(退格)、BEL(响铃)等;
通信专用字符:SOH(文头)、EOT(文尾)、ACK(确认)等;
ASCII值为8、9、10 和13 分别转换为退格、制表、换行和回车字符。它们并没有特定的图形显示,但会依不同的应用程序,而对文本显示有不同的影响 。
32~126(共95个)是字符(32是空格),其中48~57为0到9十个阿拉伯数字。
65~90为26个大写英文字母,97~122号为26个小写英文字母,其余为一些标点符号、运算符号等。
GB2312 :是对 ASCII 的中文扩展,一个小于127的字符的意义与原来相同,但两个大于127的字符连在一起时,就表示一个汉字,前面的一个字节(他称之为高字节)从0xA1用到 0xF7,后面一个字节(低字节)从0xA1到0xFE,这样我们就可以组合出大约7000多个简体汉字了。在这些编码里,我们还把数学符号、罗马希腊的 字母、日文的假名们都编进去了,连在 ASCII 里本来就有的数字、标点、字母都统统重新编了两个字节长的编码,这就是常说的”全角”字符,而原来在127号以下的那些就叫”半角”字符了。
GBK 标准:由于中国的汉字太多了,我们很快就就发现有许多人的人名没有办法在这里打出来,特别是某些很会麻烦别人的国家领导人。于是我们不得不继续把 GB2312 没有用到的码位找出来老实不客气地用上。 后来还是不够用,于是干脆不再要求低字节一定是127号之后的内码,只要第一个字节是大于127就固定表示这是一个汉字的开始,不管后面跟的是不是扩展字 符集里的内容。结果扩展之后的编码方案被称为 GBK 标准,GBK包括了GB2312 的所有内容,同时又增加了近20000个新的汉字(包括繁体字)和符号。
unicode编码:因为当时各个国家都像中国这样搞出一套自己的编码标准,结果互相之间谁也不懂谁的编码,谁也不支持别人的编码,一个叫 ISO (国际标谁化组织)的国际组织决定着手解决这个问题。他们采用的方法很简单:废了所有的地区性编码方案,重新搞一个包括了地球上所有文化、所有字母和符号 的编码!简称 UCS, 俗称 “unicode“。
UTF-8/16/32标准:unicode在很长一段时间内无法推广,直到互联网的出现,为解决unicode如何在网络上传输的问题,于是面向传输的众多 UTF(UCS Transfer Format)标准出现了,顾名思义,UTF-8就是每次8个位传输数据,而UTF-16就是每次16个位。,是在互联网上使用最广的一种unicode的实现方式,这是为传输而设计的编码,并使编码无国界,这样就可以显示全世界上所有文化的字符了。UTF-8最大的一个特点,就是它是一种变长的编码方式。它可以使用1~4个字节表示一个符号,根据不同的符号而变化字节长度,当字符在ASCII 码的范围时,就用一个字节表示,保留了ASCII字符一个字节的编码做为它的一部分,注意的是unicode一个中文字符占2个字节,而UTF-8一个中 文字符占3个字节)。从unicode到uft-8并不是直接的对应,而是要过一些算法和规则来转换
Java,C#和JavaScript的字符串都是采用UTF-16编码,UTF-16作为等宽字符(“注:其实不是”),运算速度自然比变长的UTF-8要快,而且在Windows和OSX这样的操作系统内部的字符串也是使用UTF-16来表达,但是新晋的Go和Rust都是采用UTF-8作为原生字符串的编码方式,是什么原因让Go和Rust没有选择UTF-16呢?
链接:https://www.zhihu.com/question/35214880
UTF-16 曾经是可以当定长编码用的,这也是当初会选择他们的主要原因。
但是计划比不上变化快,Unicode收录的字符很快就超过了65536个。
所以如果还想用定长编码似乎只能采取UTF-32这种编码方式了。
可是这种方式最大的问题是即使是英文字母也要四个字节来存储,空间浪费太大了。
所以UTF-8这种变长编码方式开始流行起来了,英文字母只需要一个字节,汉字三个字节。
更古怪更稀有的字符可以用四个,五个或更多字节表示,因为使用频率低,所以空间浪费不大。
当然定长编码的好处是可以快速定位字符,对于string.charAt(index)方法有着较好的支持。
UTF-8的话,就需要从头开始一个字符一个字符的解析才行,会慢一点。
但是与查询定位相比,顺序输出的情况更多,所以平常也不会感受到效率会比较慢。
未来的趋势是UTF-8,文件编码是UTF-8,数据库编码是UTF-8,网络流编码是UTF-8,
这样真的能减少很多麻烦,现在想要解决编码问题,统一UTF-8化是最佳解决方案。
gbk编码的文件,在utf-8编码下打开,为什么英文不乱码,而中文乱码?
链接:https://www.zhihu.com/question/38500793/answer/76779281
在GBK中ASCII字符是编码是一个字节,继承自ASCII码,而汉字编码是两个字节;
在UTF-8中ASCII字符依然是一个字节,和ASCII码一样,而汉字编码是三或四个字节;
所以,关于ASCII字符并不存在转码问题,其表示方式一致,而汉字需要重新转码。
链接:https://www.zhihu.com/question/38500793/answer/76810212
1、美国人首先对其英文字符进行了编码,也就是最早的ascii码,用一个字节的低7位来表示英文的128个字符,高1位统一为0;
2、后来欧洲人发现尼玛你这128位哪够用,比如我高贵的法国人字母上面的还有注音符,这个怎么区分,得,把高1位编进来吧,这样欧洲普遍使用一个全字节进行编码,最多可表示256位。欧美人就是喜欢直来直去,字符少,编码用得位数少;
4、更麻烦的是,尼玛这电脑高科技传到中国后,中国人发现我们有10万多个汉字,你们欧美这256字塞牙缝都不够。于是就发明了GB2312这些汉字编码,典型的用2个字节来表示绝大部分的常用汉字,最多可以表示65536个汉字字符,这样就不难理解有些汉字你在新华字典里查得到,但是电脑上如果不处理一下你是显示不出来的了吧。
5、这下各用各的字符集编码,这世界咋统一?俄国人发封email给中国人,两边字符集编码不同,尼玛显示都是乱码啊。为了统一,于是就发明了unicode,将世界上所有的符号都纳入其中,每一个符号都给予一个独一无二的编码,现在unicode可以容纳100多万个符号,每个符号的编码都不一样,这下可统一了,所有语言都可以互通,一个网页页面里可以同时显示各国文字。
6、然而,unicode虽然统一了全世界字符的二进制编码,但没有规定如何存储啊,亲。x86和amd体系结构的电脑小端序和大端序都分不清,别提计算机如何识别到底是unicode还是acsii了。如果Unicode统一规定,每个符号用三个或四个字节表示,那么每个英文字母前都必然有二到三个字节是0,文本文件的大小会因此大出二三倍,这对于存储来说是极大的浪费。这样导致一个后果:出现了Unicode的多种存储方式。
7、互联网的兴起,网页上要显示各种字符,必须统一啊,亲。utf-8就是Unicode最重要的实现方式之一。另外还有utf-16、utf-32等。UTF-8不是固定字长编码的,而是一种变长的编码方式。它可以使用1~4个字节表示一个符号,根据不同的符号而变化字节长度。这是种比较巧妙的设计,如果一个字节的第一位是0,则这个字节单独就是一个字符;如果第一位是1,则连续有多少个1,就表示当前字符占用多少个字节。
9、UTF-8 使用一至四个字节为每个字符编码。128 个 ASCII 字符(Unicode 范围由 U+0000 至 U+007F)只需一个字节,带有变音符号的拉丁文、希腊文、西里尔字母、亚美尼亚语、希伯来文、阿拉伯文、叙利亚文及马尔代夫语(Unicode 范围由 U+0080 至 U+07FF)需要二个字节,其他基本多文种平面(BMP)中的字符(CJK属于此类-Qieqie注)使用三个字节,其他 Unicode 辅助平面的字符使用四字节编码。
10、最后,要回答你的问题,常规来看,中文汉字在utf-8中到底占几个字节,一般是3个字节,最常见的编码方式是1110xxxx 10xxxxxx 1 0xxxxxx。
具体见知乎:
https://www.zhihu.com/question/20152853
字符编码 | 中文字节数 | 英文字节数 |
---|---|---|
GB2312 | 2 | 1 |
GBK | 2 | 1 |
GB18030 | 2 | 1 |
ISO-8859-1 | 1 | 1 |
UTF-8 | 3 | 1 |
UTF-16 | 4 | 4 |
UTF-16BE | 2 | 2 |
UTF-16LE | 2 | 2 |
由上可见,这个字符是否为中文是可以判断的,
因为如果是汉字 那么这个字符的第一个字节的高三位(即1110xxxx中的111)一定是111,第四位是0,所以这个字节换算成数字的话最小值是224(11100000)最大值是238(11101111),
所以如果我们读到一个字节,他的数值介于224与238之间,那么我们就可以判定,这个字节以及其后的两个字节,共三个字节组成一个汉字
由此可以做到再lua中 计算 UTF8 字符串的长度,每一个中文算一个字符
string.byte(s [, i [, j] ]) : 取s第i个字节的数字编码
local str = "a字"
print("字符长度:"..#str) -- 打印单个字符
for i=1,#str do
local tmp = string.byte(str, i)
print(tmp) -- 打印单个字符
end
-- 字符长度4
-- 97
-- 229 (属于224与238之间,so 这个字节以及其后的两个字节,共三个字节组成一个汉字)
-- 173
-- 151
-- 获取字符串的长度(任何单个字符长度都为1)
function getStringLength(inputstr)
if not inputstr or type(inputstr) ~= "string" or #inputstr <= 0 then
return nil
end
local length = 0 -- 字符的个数
local i = 1
while true do
local curByte = string.byte(inputstr, i)
local byteCount = 1
if curByte > 239 then
byteCount = 4 -- 4字节字符
elseif curByte > 223 then
byteCount = 3 -- 汉字
elseif curByte > 128 then
byteCount = 2 -- 双字节字符
else
byteCount = 1 -- 单字节字符
end
-- local char = string.sub(inputstr, i, i + byteCount - 1)
-- print(char) -- 打印单个字符
i = i + byteCount
length = length + 1
if i > #inputstr then
break
end
end
return length
end
local str = "abc 字符编码"
local len = getStringLength(str)
print(len) -- 8
function utf8len(input)
local len = string.len(input)
local left = len
local cnt = 0
local arr = {0, 0xc0, 0xe0, 0xf0, 0xf8, 0xfc}
while left ~= 0 do
local tmp = string.byte(input, -left)
local i = #arr
while arr[i] do
if tmp >= arr[i] then
left = left - i
break
end
i = i - 1
end
cnt = cnt + 1
end
return cnt
end
local str = "abc 字符编码"
local len = utf8len(str)
print(len) -- 8