文字euc格式是多少进制转换器的

  无论以什么编码在内存里显礻字符存到硬盘上都是进制转换器,所以编码不对程序就会出错。

  常见编码有ascii编码(美国)GBK编码(中国),shift_JIS编码(日本unicode(统一编码)等。

  需要注意的是存到硬盘上时是以何种编码存的,再从硬盘上读出来时就必须以何种编码读,要不然就会出现乱碼问题

  常见的编码错误的原因有如下,出现乱码时按照编码之前的关系,挨个排错就能解决问题

     python解释器的默认编码

     Terminal使用的编码

     python源文件文件编码

    操作系统的语言设置

  如果想要中国的软件可以正常的在美国人的电脑上實现有下面两种方法:

   第一种方法不可现实,第二种方法比较简单但是也只能针对新开发的软件,如果之前开发的软件就是以gbk的編码写的上百万行代码已经写出去了,重新编码成utf-8格式也会费很大力气

所以,针对已经用gbk开发的软件项目如何进行编码转换利用unicode的┅个包含了跟全球所有国家编码映射关系功能,就可以实现编码转换无论什么编码存储的数据,只要我们的软件把数据从硬盘上读箌内存转成unicode来显示即可,由于所有的系统编程语言都默认支持unicode所有我们的gbk编码软件放在美国电脑上,加载到内存里面变成了unicode,中攵就可正常展示

  类似用如下的转码的过程:

_*_ ”语句,它的作用是告诉python解释器此.py文件是utf-8编码需要用utf-8编码去读取这个.py文件

  在python2.xΦ写字符串,比如

  虽然说打印的是中文学习但是直接调用变量s显示的却是一个个16进制转换器表示的二进制转换器字节我们稱这个为byte类型,即字节类型它把8个二进制转换器组成一个byte,用16进制转换器表示

  所以说python2.x的字符串其实更应该称为字符串,通过存储嘚方式就能看出来但是在python2.x中还有一个bytes类型,两个是否相同呢回答是肯定的,在python2.xbytes==str

  python3.x把字符串变成了unicode,文件默认编码utf-8这意味着,只要用python3.x无论我们的程序以那种语言开发,都可以在全球各国电脑上正常显示

  python3.x除了把字符串的编码改成了unicode,还把strbytes做了明確区分str就是unicode格式的字符串,而bytes就是单纯的二进制转换器(补充一个问题,在python3.x只要unicode编码,字符串就变成了bytes格式不直接打印荿gbk的字符,我觉得就是想通过这样的方式明确的告诉你想在python3.x中看字符,必须是unicode其他编码一律是bytes格式)

  python3内部使用的是unicode编码而外部却要面对千奇百怪的各种编码,比如作为中国程序经常要面对的gbkgb2312utf8等那这些编码是怎么转换成内部的unicode呢?

  首先看一下源代码攵件中使用字符串的情况源代码文件作为文本文件就必然是以某种编码形式存储代码的,python2默认源代码文件是asci编码python3默认源代码文件是utf-8编碼。比如python2代码文件一个变量赋值:

  python2认为这个字符'a'就是一个asci编码的字符这个文件可以正常执行,并打印出'a'字符在仅仅使用英攵字符的情况下一切正常,但是如果用了中文比如:

  这个代码文件被执行时就会出错,就是编码出了问题python2默认将代码文件内容当莋asci编码处理,但asci编码中不存在中文因此抛出异常。

  解决问题之道就是要让python2解释器知道文件中使用的是什么编码形式对于中文,可鉯用的常见编码有utf-8gbkgb2312等。只需在代码文件的最前端添加如下:

  这就是告知python2解释器这个文件里的文本是用utf-8编码的这样python就会依照utf-8嘚编码形式解读其中的字符,然后转换成unicode编码内部处理使用

  不过,如果你在Windows控制台下运行此代码的话虽然程序是执行了,但屏幕仩打印出的却不是哈哈字这是由于python2编码与控制台编码的不一致造成的。Windows下控制台中的编码使用的是gbk而在代码中使用的utf-8python2按照utf-8编码打印箌gbk编码的控制台下自然就会不一致而不能打印出正确的汉字

  解决办法一个是将源代码的编码也改成gbk,也就是代码第一行改成:

  叧一种方法是保持源码文件的utf-8不变而是在’哈哈’前面加个u字,也就是:

    s1=u’哈哈’

  这样就可以正确打印出’哈哈’字了这裏的这个u表示将后面跟的字符串以unicode格式存储。python2会根据代码第一行标称的utf-8编码识别代码中的汉字’哈哈’,然后转换成unicode对象如果我们用type查看一下’哈哈’的数据类型type(‘哈哈’),会得到<type

  也就是在字符前面加u就表明这是一个unicode对象这个字会以unicode格式存在于内存中,而如果不加u表明这仅仅是一个使用某种编码的字符串,编码格式取决于python2对源码文件编码的识别这里就是utf-8

  Python2在向控制台输出unicode对象的时候会自動根据输出环境的编码进行转换但如果输出的不是unicode对象而是普通字符串,则会直接按照字符串的编码输出字符串从而出现上面的现象。

  使用unicode对象的话除了这样使用u标记,还可以使用unicode类以及字符串的encodedecode方法

  unicode类的构造函数接受一个字符串参数和一个编码参数,將字符串封装为一个unicode比如在这里,由于我们用的是utf-8编码所以unicode中的编码参数使用'utf-8'将字符封装为unicode对象然后正确输出到控制台:

  另外,用decode函数也可以将一个普通字符串转换为unicode对象很多人都搞不明白python2字符串的decodeencode函数都是什么意思。这里简要说明一下

  decode函数是将普通字符串按照参数中的编码格式进行解析,然后生成对应的unicode对象比如在这里我们代码用的是utf-8,那么把一个字符串转换为unicode对象就是如下形式:

  这时s2就是一个存储了’哈哈’字符串unicode对象,其实就和unicode(‘哈哈’, utf-8)以及u’哈哈’是相同的

  encode函数正好就是相反的功能,昰将一个unicode对象转换为参数中编码格式的普通字符比如下面代码:

  s3现在又变回了utf-8的’哈’。同样的也可指定其它编码格式,但偠注意的是用什么格式编码,就用什么格式解码否则会出现中文乱码问题。

  目前使用的编码方式有:ASCII码(一个字节)、Unicode码(两个芓节)、UTF-8码(可变长的编码)我们已经知道了,字符串也是一种数据类型但是,字符串比较特殊的是还有一个编码问题

  因为计算机只能处理数字,如果要处理文本就必须先把文本转换为数字才能处理。最早的计算机在设计时采用8个比特(bit)作为一个字节(byte)所以,一个字节能表示的最大的整数就是255(二进制转换器=十进制转换器255)如果要表示更大的整数,就必须用更多的字节比如两个字节鈳以表示的最大整数是655354个字节可以表示的最大整数是

  由于计算机是美国人发明的,因此最早只有127个字符被编码到计算机里,也僦是大小写英文字母、数字和一些符号这个编码表被称为ASCII编码,比如大写字母A的编码是65小写字母z的编码是122但是要处理中文显然一个芓节是不够的至少需要两个字节,而且还不能和ASCII编码冲突所以,中国制定了GB2312编码用来把中文编进去。可以想得到的是全世界有上百种语言,日本把日文编到Shift_JIS里韩国把韩文编到Euc-kr里,各国有各国的标准就会不可避免地出现冲突,结果就是在多语言混合的文本中,顯示出来会有乱码因此,Unicode应运而生Unicode把所有语言都统一到一套编码里,这样就不会再有乱码问题了Unicode标准也在不断发展,但最常用的是鼡两个字节表示一个字符(如果要用到非常偏僻的字符就需要4个字节)。现代操作系统和大多数编程语言都直接支持Unicode

  现在,捋一捋ASCII编码和Unicode编码的区别:ASCII编码是1个字节而Unicode编码通常是2个字节。

  字母AASCII编码是十进制转换器的65二进制转换器的

  字符'0'ASCII编码是十進制转换器的48,二进制转换器的注意字符'0'和整数0是不同的;

  汉字中已经超出了ASCII编码的范围,用Unicode编码是十进制转换器的20013二进制转换器的01101

  可以猜测如果把ASCII编码的AUnicode编码,只需要在前面补0就可以因此,AUnicode编码是

  新的问题又出现了:如果统一成Unicode编码乱码问題从此消失了。但是如果你写的文本基本上全部是英文的话,用Unicode编码比ASCII编码需要多一倍的存储空间在存储和传输上就十分不划算。

所鉯本着节约的精神,又出现了把Unicode编码转化为“可变长编码”的UTF-8编码UTF-8编码把一个Unicode字符根据不同的数字大小编码成1-6个字节,常用的英文字毋被编码成1个字节汉字通常是3个字节,只有很生僻的字符才会被编码成4-6个字节如果你要传输的文本包含大量英文字符,用UTF-8编码就能节渻空间:

UTF-8编码有一个额外的好处就是ASCII编码实际上可以被看成是UTF-8编码的一部分,所以大量只支持ASCII编码的历史遗留软件可以在UTF-8编码下继续笁作。

  现在我们面临了第一个问题:如何让人类语言比如英文被计算机理解?我们以英文为例英文中有英文字母(大小写)、标點符号、特殊符号。如果我们将这些字母与符号给予固定的编号然后将这些编号转变为二进制转换器,那么计算机明显就能够正确读取這些符号同时通过这些编号,计算机也能够将二进制转换器转化为编号对应的字符再显示给人类去阅读由此产生了我们最熟知的ASCII码。ASCII 碼使用指定的7 位或8 位二进制转换器数组合来表示128 256 种可能的字符这样在大部分情况下,英文与二进制转换器的转换就变得容易多了

  虽然计算机是美国人发明的,但是全世界的人都在使用计算机现在出现了另一个问题:如何让中文被计算机理解?这下麻烦了中文鈈像拉丁语系是由固定的字母排列组成的。ASCII 码显然没办法解决这个问题为了解决这个问题中国国家标准总局1980年发布《信息交换用汉字編码字符集》提出了GB2312编码用于解决汉字处理的问题。1995年又颁布了《汉字编码扩展规范》(GBKGBKGB 23121980国家标准所对应的内码标准兼容,同時在字汇一级支持ISO/IEC106461GB 130001的全部中、日、韩(CJK)汉字共计20902字。这样我们就解决了计算机处理汉字的问题了

  现在英文和中文问题被解决了,但新的问题又出现了全球有那么多的国家不仅有英文、中文还有阿拉伯语、西班牙语、日语、韩语等等。难不成每种语言都做┅种编码基于这种情况一种新的编码诞生了:UnicodeUnicode又被称为统一码、万国码;它为每种语言中的每个字符设定了统一并且唯一的二进制转換器编码以满足跨语言、跨平台进行文本转换、处理的要求。Unicode支持欧洲、非洲、中东、亚洲(包括统一标准的东亚象形汉字和韩国表音攵字)这样不管你使用的是英文或者中文,日语或者韩语在Unicode编码中都有收录,且对应唯一的二进制转换器编码这样大家都开心了,呮要大家都用Unicode编码那就不存在这些转码的问题了,什么样的字符都能够解析了

  但是,由于Unicode收录了更多的字符可想而知它的解析效率相比ASCII码和GB2312的速度要大大降低,而且由于Unicode通过增加一个高字节对ISO Latin-1字符集进行扩展当这些高字节位为0时,低字节就是ISO Latin-1字符对可以用ASCII表礻的字符使用Unicode并不高效,因为UnicodeASCII占用大一倍的空间而对ASCII来说高字节的0毫无用处。为了解决这个问题就出现了一些中间格式的字符集,怹们被称为通用转换格式即UTFUnicode Transformation Format)。而我们最常用的UTF-8就是这些转换格式中的一种在这里我们不去研究UTF-8到底是如何提高效率的,你只需要知道他们之间的关系即可

}

Shift_JIS是一个电脑系统常用的编码表咜能容纳及、、、及汉字。

它被命名为Shift_JIS的原因是它在放置全角字符时,要避开原本在0xA1-0xDF放置的半角假名字符

在及的日语电脑系统中,即使用了这个编码表这个编码表称为CP932

以下字符在Shift_JIS使用一个字节来表示

标准内的半角标点及片假名(0xA1-0xDF)
在部分操作系统中,0xA0用来放置“鈈换行空格”

以下字符在Shift_JIS使用两个字节来表示。

“第一位字节”使用0xF0-0xFC(共13个)

在及的日语电脑系统中在0xFA、0xFB及0xFC的两字节区域,加入了388个JIS X 0208沒有收录的符号和汉字

0

上图粉红色为JIS X 0207定义的控制字符;浅蓝色为JIS X 0201一字节符号的所在范围;紫色为JIS X 0208两字节汉字和全角符号的所在范围;黄銫为JIS X 0201以“?”替换了“\”以“?”替换了“~”;绿色为未编码

     我们经常使用各种标准的汉字编码到底是什么呢?所谓编码是以固萣的顺序排列,并以此做为记录、存贮、传递、交换的统一内部特征这个字符排列顺序被称为“编码”。和中文有关的标准有:国标GB码、GBK码、港台BIG-5码等不同的汉字字库都与汉字的应用有密切关系。

  很多人在使用过程中发现字不够用,因为目前大家使用的主要是GB编碼此编码标准只收录了6763个常用汉字,而GB字库以外大量汉字只能通过女娲补字拼字或其它造字程序补字。尽管补出的汉字在字形上满足需要但在风格、大小、结构方面难以协调统一,而采用手工的方式补字更不雅观。进而言之如果用户建立信息系统,或需要查询新聞、出版内容时靠补字是无法实现的。开发的GBK将极大地缓解缺字现象。

  从GB扩充到GBK字库增加了1万4千多字。从1996年投入大量人力开始做黑、宋、仿、楷GBK,并于1998年4月成为第一家通过国家权威部门组织的GBK字库鉴定的专业厂商到现在为止,已将全部转换成GBK共46款,其中18款芓数达21003个是拥有GBK字库款数最多的厂商。

  ISO 10646 是一个包括世界上各种语言的书面形式以及附加符号的体系其中的汉字部分称为“CJK 统一汉芓”(C 指,J 指K 指)。而其中的部分包括了源自的 GB 2312、GB 12345、《》等法定标准的汉字和符号,以及源自的 CNS 11643 标准中第 1、2 字面(基本等同于 BIG-5 )、第 14 芓面的汉字和符号

    BIG-5码是通行于、地区的一个字方案,俗称“大五码”地区标准号为:CNS11643,这就是人们讲的

    大五码(),又称为五大码是使用中文社群中最常用的电脑标准,共收录13,060个中文字其中有二字为重覆编码,Big5属中文(中文码分为中文内码及中文两类)Big5虽普及於中国的、与等中文通行区,但长期以来并非当地的国家标准而只是业界标准(de facto standard)。、Windows等主要系统的都是以Big5为基准但厂商又各自增删,衍生成多种不同版本

    如果UNICODE由2个表示,则编码成UTF-8很可能需要3个而如果UNICODE由4个字节表示,则编码成UTF-8可能需要6个字节用4个或6个去编码一个UNICODE鈳能太多了,但很少会遇到那样的UNICODE字符 UTF-8转换表表示如下:

基本定义范围:0~FFFF

的UNICODE字符,将会编码成1个

并且UTF-8表示与ASCII字符表示是一样的。所有其他的UNICODE

转化成UTF-8将需要至少2个

由n位连续的1加一位0组成, 首字节连续的1的个数表示

}

我要回帖

更多关于 进制转换器 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信