为什么键盘安装不上上的V要当吁

  能否使用汉语编程不是关键,看看英语相对于汉语在计算机学科上的优势。  不少人在讨论中文计算机,想像如果计算机是中国人发明的,那会是什么样?首先,键盘会是什么样?像算盘像八卦还是像古筝?其实当有一个成型的实例,所有的可能性就都没了。所以,有了现在的计算机,中国人发明计算机会什么样就永远无法知道啦。即使有,也会被说成了借鉴了现有计算机,或者是现在计算机的改进等等。  那么,英语相对于汉语在现代计算机中到底有什么优势?我以为有两个:  1、编码。  英文天然是编码语言,这显然更适合机器实现。尤其是在计算机发展初期,硬件技术还很简陋,较少的编码显然更容易实现。英文字母只有26个,加上常用符号也只需7位二进制便可表示。英文字母笔划简单,只要8x8点阵就可以显示蛮好的字符。虽然随着硬件技术的发展,现在字符少笔划简单已经不再是问题,但历史积累却留下了。现代计算机最小的操作单元是字节,8位二进制。表示英文钓钓有鱼。而其它字符只能以多字节表示。现在的各种编码方案都给英文字母是特殊地位。比如尽管unicode面向所有代码,但英文字母却特别地只用8位。所以,其它语言一旦不了解原有的编码方案,就不能正确解码,都成了乱码。而英文字符却永远没有乱码。  2、积累  第二个优势是没有办法的,也就是历史的积累。现在计算机学科几乎所有重要的文档、软件、论文都是英文的或者都有英文的,并都以英语习惯编写。对于母语是其它语言的就是天然屏障。  那么解决方案呢?第二个积累没有办法,只能靠时间慢慢解决。来说编码。  根据前面分析,产生乱码的原因是多字节造成的。以前硬件不行,8位已经是天了(让intel成名的是4004,4位机)。8位最多只有256个符号,表示汉字显然不行。如果从软硬件统一定义16位为最小操作单位,即一字节为16位。那么,汉字就与ASCII完全同等地位。同时显示字模也以16x16为基本显示模式,由硬件完成。那样,汉字就与英文字母完全同等地位。这将更适合汉字在计算机中的应用。
楼主发言:79次 发图: | 更多
  早就有汉语编程语言了,所谓易语言,不过是个垃圾,本身就是建立在c的基础上的  
  编程不需要用汉语,文档有汉语的就行了,主要是某些编程的文档都是英文的没人好好翻译。。  还有就是有一些专有名词没人翻译。
  编程语言用英文不好,应该用世界语。世界语才适合编程。
  我觉得可以汉语编程,一些关键字完全可以用汉语词取代啊,比如AND用“和”,OR用“或”,一样简便,置于什么变量这些就只好用些字母组合下了
  把编程关键字替换成汉字相对容易,但是并没什么大用,学不会的还是学不会,能学会的不需要也能学会。  文档资料大部分是英文才是主要问题,英文比较差的话啃资料会比较困难。
  如果中国人最先发明计算机,也采用同样的二进制编码形式。  那么计算机最初的形态就是:一开始就是双字节编码,显示字库带汉字显示。  无非就是多几K存储器,造出来的机器更贵些。
  @和平卫士2018
17:47:22  早就有汉语编程语言了,所谓易语言,不过是个垃圾,本身就是建立在c的基础上的  -----------------------------  @晓子-22 19:24:54  汉语很伟大但也有缺点,曾经在一些方面不如英语。比如不方便建立数学公式,编程语言、计算机键盘录入,确实一定程度制约了现代科学在中国萌芽。但现在这些已经都克服了,因为有了汉语拼音,现在汉语弥补了自己的缺点进一步完善了,已经开始日益显露其巨大优势,语音录入、会意词汇方便跨学科。汉语已经包容了英语,英语却不能包容汉语。  -----------------------------  英语也不能建立数学公式,建立数学公式的是另一套符号系统。这与汉语并不矛盾。
  @诶比涩低
20:10:02  如果中国人最先发明计算机,也采用同样的二进制编码形式。  那么计算机最初的形态就是:一开始就是双字节编码,显示字库带汉字显示。  无非就是多几K存储器,造出来的机器更贵些。  -----------------------------  也许会是二进制,也许不一定。同样十个手指,有人发明十进制,有人是十二进制。  以前会更贵,现在不算什么。  编程用什么不重要,那是水到渠成的事。但16位字节可以创造更适合中文的环境,也许这很重要。
  产生乱码的原因是多字节造成的。以前硬件不行,8位已经是天了(让intel成名的是4004,4位机)。8位最多只有256个符号,表示汉字显然不行。如果从软硬件统一定义16位为最小操作单位,即一字节为16位。同时显示字模也以16x16为基本显示模式,由硬件完成。那样,汉字就与英文字母完全同等地位。这将更适合汉字、中文在计算机中的应用。
  “中文计算机”定义:由外而内,创造中文运行、应用、开发环境  中文计算机定义:  外部定义:从开机至关机,所有的运行、应用、开发界面均以中文方式显示、操作。  内部定义:  1、以16位字节取代8位字节。以16位字节作为机器编址、寻址、基本操作单位。  2、以16位汉字标准字符集作为系统默认字符集,在机器中淘汰ASCii应用(英文字母也按汉字标准编码)。  3、所有字符以默认字符集字符计数,每个符号为一个字符。不可分隔。文本方式直接输入内码(汉卡)。  目标:  由内而外,创造全中文的运行、应用、开发环境。相当于人在中国的环境,所有的语言、习惯都是中文的。你可以说英文,但必须翻译成中文。  (现在的计算机相当于你在美国,一切都是按美国的语言、习惯,说中文也要翻译成英语。当然,如果非要较真,那不管是中文还是英文,说到底都是声波信号(计算机里的二进制)。你也可以说根本就没有汉语英语,都是人对于声波信号的传播处理。)  难点:  1、以16位字节取代8位字节对过去所有软件、编程思维都是巨大改变,或许所有软件都要重写。  2、显示。英文字母、符号等,如果按汉字显示会很蠢(相当于现在的全角字符)。但如果按半角显示,则影响汉字的显示格式,影响字符计数。  3、输入。汉字直接输入。需要公布汉字输入法编码标准。
  支持汉语编程
  编程和学什么语言,和是否学计算机没一毛钱关系  偏程需要的是逻辑思维,归纳,创新能力,个人爱好好不好,  我见过很多计算机专业大学本科毕业,甚至研究生毕业都不会编程,他们都学英语吧,而有非计算机专业,学俄语的却程序做的很好。
  @和平卫士2018
17:47:22  早就有汉语编程语言了,所谓易语言,不过是个垃圾,本身就是建立在c的基础上的  -----------------------------  @晓子-22 19:29:32  汉语编程语言没有太大意义,没人投入大的精力搞,以后会有的,拼音也是汉语。  -----------------------------  汉语编程另一层面的事。由于底层采用8位字节,英文字库,所以所有硬件应用、引导系统只能采用英文字符、英文界面。即使用中文也是自行其事,没有统一标准。而没有标准就很难积累,很难优化很难进一步发展。这就影响了中文的使用与积累。  采用16位字节,16x16硬件字模,从底层建立适合汉字使用的基础,就可以在全方面为使用中文显示、操作提供方便。
  编程感了兴趣,再就看智商了,语言成不了障碍,过份强调英语在计算机中的作用是一帮居心不良的人。
  当计算机芯片由中国来引领潮流的时候就会实现了  
19:17:03  编程语言用英文不好,应该用世界语。世界语才适合编程。  -----------------------------  是在反我?嘿嘿。我说英文是天然的“编码”语言,不是说天然的“编程”语言。因为英文单词本身就是由一组一组的字母编码组成的。所用符号少,更适合键盘操作。
  @和平卫士-22 17:47:22  早就有汉语编程语言了,所谓易语言,不过是个垃圾,本身就是建立在c的基础上的  -----------------------------  易语言只是治标,没有治本。虽然表面符号是中文,但里面还是8位字符,汉字的使用仍然很大限制。
  方案就是降低学英语时间,降低英语地位,时间充裕了,对计算机理解的才会更深入一些。
  @行知合一1
07:43:36  当计算机芯片由中国来引领潮流的时候就会实现了  -----------------------------  芯片只是硬件,还需要好的基础环境。如果硬件本身不能支持中文,中文只能由软件实现,这就很大限制了中文的作用。
07:28:02  编程和学什么语言,和是否学计算机没一毛钱关系  偏程需要的是逻辑思维,归纳,创新能力,个人爱好好不好,  我见过很多计算机专业大学本科毕业,甚至研究生毕业都不会编程,他们都学英语吧,而有非计算机专业,学俄语的却程序做的很好。  -----------------------------  这里不讨论编程,只讨论怎样的基础环境更适合中文使用。
  所以英语是低级语言,汉语是高级语言。放弃汉语学英语?搞倒退?死去吧  
07:47:29  方案就是降低学英语时间,降低英语地位,时间充裕了,对计算机理解的才会更深入一些。  -----------------------------  这主要看积累。当然,有了好的基础应用环境,中文会更方便使用,中文积累也会更容易。
  英文天然是编码语言,说的太对了,说明这种语言就是给机器用的  
  @castmoon
08:17:51  英文天然是编码语言,说的太对了,说明这种语言就是给机器用的  -----------------------------  天然的东西往往比较低级。
  @行知合一1
07:43:36  当计算机芯片由中国来引领潮流的时候就会实现了  -----------------------------  @特别郁闷
07:50:51  芯片只是硬件,还需要好的基础环境。如果硬件本身不能支持中文,中文只能由软件实现,这就很大限制了中文的作用。  ----------------------------  @有道无德 :
评论   硬件支持中文在现阶段是不现实的,。。。作为一种抽象语言,用其他字符做底层是完全可行的   -----------------------------  已经可以啦,关键得是研究出一个标准。  按汉字大字符集GBK,使用两万余汉字,20K+。加上其它符号,算32K。每个字符采用16x16点阵,32字节(8位)。这样总共1MB(8位)。现在1MB的存储根本不算什么。
  楼上各位看起来好像是IT行业的,可看你们对编程的理解,真让人担心你们的前途。  首先,编程语言根本不是什么技能,对一个合格的IT从业者,需要什么语言就用什么语言,学一个新语言的时间不应超过3天就能投入工作。  其次,编程语言用英语、汉语根本不是问题,你喜欢用汉语编程,就自己做个汉语的词法分析器、语法分析器好了,网上也有很多开源代码,自己改改就行了。别说汉语编程,你就算用鸟语编程也很容易。  第三,争论汉语、英语的自然语言表达能力、精确程度毫无必要,现在的深度学习人工智能已经能够理解、认知语言背后的东西,甚至超出了人,机器翻译也相当发达,自然语言表达的东西,不论英语汉语,都可以形成深度的语义理解。
  说白了就是英语简单计算机看得懂
汉语复杂他们看不懂所以不合适  
  @1stSS
08:32:32  楼上各位看起来好像是IT行业的,可看你们对编程的理解,真让人担心你们的前途。  首先,编程语言根本不是什么技能,对一个合格的IT从业者,需要什么语言就用什么语言,学一个新语言的时间不应超过3天就能投入工作。  其次,编程语言用英语、汉语根本不是问题,你喜欢用汉语编程,就自己做个汉语的词法分析器、语法分析器好了,网上也有很多开源代码,自己改改就行了。别说汉语编程,你就算用鸟语编程也很容易。  ......  -----------------------------  参加学术会议讨论的是学术,与什么语言无关。但不懂英文还真的要麻烦的多。
  能绰绰有余写成钓钓有鱼还指望用汉语来编程?
  不要太过于纠结这个问题,没必要,中国不缺it人员,不缺编程人员,也不要在呼汉语能不能编程,真没必要。每一种语言的功能不同,数学用阿拉伯数字还有各种符号,有问题吗?没有,计算机用计算机语言只是更接近英语,不要觉的是个外国人就会编程?不可能的,也不需要。
  @和平卫士2018
17:47:22  早就有汉语编程语言了,所谓易语言,不过是个垃圾,本身就是建立在c的基础上的  -----------------------------  @晓子1234
19:24:54  汉语很伟大但也有缺点,曾经在一些方面不如英语。比如不方便建立数学公式,编程语言、计算机键盘录入,确实一定程度制约了现代科学在中国萌芽。但现在这些已经都克服了,因为有了汉语拼音,现在汉语弥补了自己的缺点进一步完善了,已经开始日益显露其巨大优势,语音录入、会意词汇方便跨学科。汉语已经包容了英语,英语却不能包容汉语。  -----------------------------  @特别郁闷
07:14:13  英语也不能建立数学公式,建立数学公式的是另一套符号系统。这与汉语并不矛盾。  -----------------------------  终于看见一个不迷信英语的!!  数学公式多是希腊字母来表示,不过反正 都是西方系的!!  要想弄成汉字,得中国人多弄出些新东西,才扭得过来。  不过,这提示我们,在搞研究的时间,学习借鉴很重要。想想自己更重要!!
  @arabianights
07:24:00  支持汉语编程  —————————————————  没有这个必要,字母,数学符号,逻辑符号,这些并不特属哪个语言。计算机语言也一样,关键词就那么几个。虽然借用了英语的单词,就如数学里面的sin函数一样,但却不是英语,而是数学逻辑的一部分,没必要换成中文。就和阿拉伯数字一样,没必要还写中文。英语字母也是由其他字符演化而来,是别的民族的贡献。  
  这有什么好谈论的?如果计算机是华人发明的,那么当然是用中文做编程语言了。
  在高算领域,美国的硬件优于中国,但是,比赛成绩却不如中国,为何? 只因为美国的编程能力不如中国! 所以, 所谓英语有助于编程, 就是瞎扯+忽悠 .....   其实, 对编程最有帮助的是数学模型和算法, 是理科思维, 而不是能学好外语的文科思维 .....
  现在抓紧时间喷,量子计算机问世后你们就没得喷了  
  @1stSS
08:32:32  楼上各位看起来好像是IT行业的,可看你们对编程的理解,真让人担心你们的前途。  首先,编程语言根本不是什么技能,对一个合格的IT从业者,需要什么语言就用什么语言,学一个新语言的时间不应超过3天就能投入工作。  其次,编程语言用英语、汉语根本不是问题,你喜欢用汉语编程,就自己做个汉语的词法分析器、语法分析器好了,网上也有很多开源代码,自己改改就行了。别说汉语编程,你就算用鸟语编程也很容易。  ......  -----------------------------  @特别郁闷
08:49:23  参加学术会议讨论的是学术,与什么语言无关。但不懂英文还真的要麻烦的多。  -----------------------------  如果IT从业人员, 从学校开始,就把学英语的时间用于研究数学和算法, 参考资料由学校专业的翻译部门提供, 那么, 十年后的学术会议讨论, 大家就会用用汉语发言了 ......
  if =如果,存储英语一个字母只需一个byte,存储一个汉字需要两个byte,所以用汉语编程成本高
  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制”的巨坑之中  为什么是二进制这一点的实际来历是很有趣的——因为穿孔纸带,打一个洞就是1,没有洞就是0.  位宽——也就是字节,为什么是8位,因为当时的英文字母只需要8位就能识别,同时8是2的倍数(2X2X2),在当时有限的显示设备的分辨率情况下(当时的显示设备分辨率约256X192),“刚刚好”的8bit就被选用了。  “打孔员”(键盘?这是以后的事情了)们也很欢喜——这意味着以后给纸袋打孔按照既有规则来就行了,不用换一台设备就要适应一次。  顺带的说一下,当时的"打孔员",就相当于现在的“码农”,不过他们的工作强度了大约是现在"码农"的80倍(货真价实的1bit1bit“打”出来的代码啊)  好了,现在说到为什么8bit一字节难以动摇了  因为兼容性,汉子是2bit,日语是2bit,韩文是2bit,拉丁字母语系都是1bit,特殊文字论外  用本国文字作为汇编语言这点日本人走得最远,真的实际的在80年代设计生产出了使用日文字进行汇编的硬件,并完善了软件——但是,性能升级的困难让日本人从此彻底的放弃了开发日文字汇编硬件,软件开发同时停摆  那么现在说说日本人当时遇到的差点把设计人员逼疯的问题  第一点,空余浪费与兼容问题。  中日韩文字在计算机上同为16bit字,这直接导致了当时的日本开发人员面临对于“数字”,“标点”,“英文字母”兼容性的选择方向问题——是将英文字另外设计硬件兼容还是将其“16bit化”——另外设计兼容电路那么计算机在调用数据时可能会出现编码故障(不信?你去下一个日文字的txt看看,你没有对应字包那就是一堆乱码+乱字),将其16bit化那么在使用英文字时会严重浪费计算机性能(原本存储只需要8bit空间现在要翻一倍)  第二点,升级难度  当今计算机的存储逻辑是这样的:1GB=1024MB/1MB=1024KN/1KB=1024字节/1字节=8bit  可逆的8bit=1字节是基础,如果要用16bit=1字节的算法话,现今的存储设备容量会直接的从根源上被砍半  这是最抓狂的,对于使用英文字的人来说,你这种行为属于强行提高存储成本——原来的1TB硬盘,到了你手里,就只有500GB了。  第三点:向前兼容  别忘了至今人们使用的计算机软件都是英文字8bit为基础的,你要推广你的16bit,那么你就必须面对一个体系成熟关系盘根错节遮天蔽日的8bit阵营,这是最让人绝望的
19:17:03  编程语言用英文不好,应该用世界语。世界语才适合编程。  -----------------------------  @特别郁闷
07:43:54  是在反我?嘿嘿。我说英文是天然的“编码”语言,不是说天然的“编程”语言。因为英文单词本身就是由一组一组的字母编码组成的。所用符号少,更适合键盘操作。  -----------------------------  世界语单词同样是由一组一组的字母编码组成的。所用符号比英语更少,更适合键盘操作。
  @1stSS
08:32:32  楼上各位看起来好像是IT行业的,可看你们对编程的理解,真让人担心你们的前途。  首先,编程语言根本不是什么技能,对一个合格的IT从业者,需要什么语言就用什么语言,学一个新语言的时间不应超过3天就能投入工作。  其次,编程语言用英语、汉语根本不是问题,你喜欢用汉语编程,就自己做个汉语的词法分析器、语法分析器好了,网上也有很多开源代码,自己改改就行了。别说汉语编程,你就算用鸟语编程也很容易。  ......  -----------------------------  @特别郁闷
08:49:23  参加学术会议讨论的是学术,与什么语言无关。但不懂英文还真的要麻烦的多。  -----------------------------  @mrguo-23 10:06:36  如果IT从业人员, 从学校开始,就把学英语的时间用于研究数学和算法, 参考资料由学校专业的翻译部门提供, 那么, 十年后的学术会议讨论, 大家就会用用汉语发言了 ......  -----------------------------  正解,这就是我在另一个贴子跟人争论半天的原意。  现在讨论汉语编程,其实只是为了解决一个问题,如何让我们和我们下一代下下代,在从事这个领域的研究和工作时,能减少语言上的弱势?  换个角度,当我们在这行业成为最先进的时候,让非汉语的国家,想要追赶也得想办法先跨越语言障碍?
  汉编不太可能推广。不是没人做过,即使做,核心部分也都是用英文写好框架,定义好的。  电脑发展到今天核心部分都是英文,如过想彻头彻尾的用汉编,得从头到尾换一遍。不太可能。这东西有先到优势,就像键盘的字母位置确定了,即使后来有更好的方案,也不会换了。  再说了想汉编,得推广汉语,障碍太多。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。
  @1stSS
08:32:32  楼上各位看起来好像是IT行业的,可看你们对编程的理解,真让人担心你们的前途。  首先,编程语言根本不是什么技能,对一个合格的IT从业者,需要什么语言就用什么语言,学一个新语言的时间不应超过3天就能投入工作。  其次,编程语言用英语、汉语根本不是问题,你喜欢用汉语编程,就自己做个汉语的词法分析器、语法分析器好了,网上也有很多开源代码,自己改改就行了。别说汉语编程,你就算用鸟语编程也很容易。  ......  -----------------------------  @特别郁闷
08:49:23  参加学术会议讨论的是学术,与什么语言无关。但不懂英文还真的要麻烦的多。  -----------------------------  @mrguo2012
10:06:36  如果IT从业人员, 从学校开始,就把学英语的时间用于研究数学和算法, 参考资料由学校专业的翻译部门提供, 那么, 十年后的学术会议讨论, 大家就会用用汉语发言了 ......  -----------------------------  @flysky77
11:42:11  正解,这就是我在另一个贴子跟人争论半天的原意。  现在讨论汉语编程,其实只是为了解决一个问题,如何让我们和我们下一代下下代,在从事这个领域的研究和工作时,能减少语言上的弱势?  换个角度,当我们在这行业成为最先进的时候,让非汉语的国家,想要追赶也得想办法先跨越语言障碍?  -----------------------------  要减少语言上的弱势,最重要的一点就是让汉字与英文字母有同等地位,但现在并不是那样。即使所谓unicode,英文也有汉字以及其它字符所不具有的特殊地位。
19:17:03  编程语言用英文不好,应该用世界语。世界语才适合编程。  -----------------------------  @特别郁闷
07:43:54  是在反我?嘿嘿。我说英文是天然的“编码”语言,不是说天然的“编程”语言。因为英文单词本身就是由一组一组的字母编码组成的。所用符号少,更适合键盘操作。  -----------------------------  @冬蛇
11:39:47  世界语单词同样是由一组一组的字母编码组成的。所用符号比英语更少,更适合键盘操作。  -----------------------------  不欢迎为抬杠而抬杠。
  @jie6-11-23 10:24:36  if =如果,存储英语一个字母只需一个byte,存储一个汉字需要两个byte,所以用汉语编程成本高  -----------------------------  为什么if一定要用“如果”?用“若”不行吗?java继承用extends,中文只需2个16位“继承”。continue中文只需“继续”。
  @szszszh
08:54:22  能绰绰有余写成钓钓有鱼还指望用汉语来编程?  -----------------------------  哈哈~~~~~~好吧。
  @华夏河洛郎
10:05:26  现在抓紧时间喷,量子计算机问世后你们就没得喷了  -----------------------------  量子计算机只是一种载体,基本的理论还需研究。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01
  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大规模进程电路前的时代就已经被占满了——再远甚至能追溯到数学研究进制转换的时代去了,不过这没有意义  最大的问题还是8bit与16bit的兼容问题——为什么这么说  因为8bit时代是通过空出了头位两个编号给其他语系来完成识别的  换用启发计算机的密码界的术语来说就是——空出了识别字头,让接收方知道接下来的内容按照原先约定是需要按照一个什么流程进行处理的  那你要16bit化,为了保证与8bit的兼容,那么你在计算的时候就必须通过编译将所有原本的8bit数据转化为16bit数据才能进行识别,这个可就牵扯到“标准”了....
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  呵呵,单个数字其实只要4位,叫BCD码。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  除非用笔划,用8种笔划代替汉字,汉字的笔画有规律,但是无法编程,除非有不同的电脑结构,8个笔画映射汉字
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了
  @jie0702_1
10:24:36  if =如果,存储英语一个字母只需一个byte,存储一个汉字需要两个byte,所以用汉语编程成本高  -----------------------------  @特别郁闷
12:42:29  为什么if一定要用“如果”?用“若”不行吗?java继承用extends,中文只需2个16位“继承”。continue中文只需“继续”。  -----------------------------  编译出来都一样 关键字又不会保留在中间语言或者汇编里。 源码那点储存空间算啥。手敲到累死都敲不出一兆源码。讨论中文编程语言的空间问题 一看就是走错路了。 关键还是英文符号输入快 换成中文意义不大。  现代语言可以用中文做参数命 函数名的。但从没见过有人这么干
  @1stSS
08:32:32  楼上各位看起来好像是IT行业的,可看你们对编程的理解,真让人担心你们的前途。  首先,编程语言根本不是什么技能,对一个合格的IT从业者,需要什么语言就用什么语言,学一个新语言的时间不应超过3天就能投入工作。  其次,编程语言用英语、汉语根本不是问题,你喜欢用汉语编程,就自己做个汉语的词法分析器、语法分析器好了,网上也有很多开源代码,自己改改就行了。别说汉语编程,你就算用鸟语编程也很容易。  ......  -----------------------------  @特别郁闷
08:49:23  参加学术会议讨论的是学术,与什么语言无关。但不懂英文还真的要麻烦的多。  -----------------------------  @mrguo-23 10:06:36  如果IT从业人员, 从学校开始,就把学英语的时间用于研究数学和算法, 参考资料由学校专业的翻译部门提供, 那么, 十年后的学术会议讨论, 大家就会用用汉语发言了 ......  -----------------------------  码农大多英文稀烂 真把学英语的时间拿来研究数学算法 真和现在没啥区别 真能把打游戏的时间拿出来 可能还有点希望。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  看了你说的,不知道怎么评论好。  您说的第二个第三个问题,其实都不是问题。首先,现在的文本文件几乎没有ASCII编码的了。 大多数是UTF8, 你说的16位编码, 8位编码的问题根本不存在。对于二进制文件,根本没有byte这个概念。主流文件系统一个簇的大小至少有4K吧。把八位一个byte变成16位一个byte对磁盘空间毫无影响。 另外,一个byte是8位是由早期寄存器大小决定的。当然设计成八位和英文编码有一定关系。 但是现在计算机体系早就是64位了。这就是个伪命题。  第三个问题,向后兼容的确是个问题。 但是这个问题也已经解决了。 所谓的几位操作系统,主要看的是寻址空间是几位,和编码一分钱关系都没有。 Dos就是16位操作系统了。(不然怎么管理640K内存?) 后来xp已经是16/32位混合操作系统了。 到了NT已经是纯32位操作系统了。(可以管理2G内存,另外2G系统保留)。 现在的操作系统早就是64位了。 当中跑个32位虚拟环境。还在讨论8位到16位的兼容性?
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @MinorD
14:53:10  看了你说的,不知道怎么评论好。  您说的第二个第三个问题,其实都不是问题。首先,现在的文本文件几乎没有ASCII编码的了。 大多数是UTF8, 你说的16位编码, 8位编码的问题根本不存在。对于二进制文件,根本没有byte这个概念。主流文件系统一个簇的大小至少有4K吧。把八位一个byte变成16位一个byte对磁盘空间毫无影响。 另外,一个byte是8位是由早期寄存器大小决定的。当然设计成八位和英文编码有一定关系。 但是现在计......  -----------------------------  嘛,估计我一开始想得也有错,并非专业计算机人士,只是原来研究密码学发展的时候延展阅读接触到了一些计算机发展,对计算机底层有一定了解,有时候会带有按照密码研究那种"首先考虑硬件问题再接着考虑方法"的思考方式23333
@UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @MinorD
14:53:10  看了你说的,不知道怎么评论好。  您说的第二个第三个问题,其实都不是问题。首先,现在的文本文件几乎没有ASCII编码的了。 大多数是UTF8, 你说的16位编码, 8位编码的问题根本不存在。对于二进制文件,根本没有byte这个概念。主流文件系统一个簇的大小至少有4K吧。把八位一个byte变成16位一个byte对磁盘空间毫无影响。 另外,一个byte是8位是由早期寄存器大小决定的。当然设计成八位和英文编码有一定关系。 但是现在计......  -----------------------------  @UKL_116TNT
15:37:48  嘛,估计我一开始想得也有错,并非专业计算机人士,只是原来研究密码学发展的时候延展阅读接触到了一些计算机发展,对计算机底层有一定了解,有时候会带有按照密码研究那种"首先考虑硬件问题再接着考虑方法"的思考方式23333  -----------------------------  汉语编程很容易实现 效果也不会太差。但是没有任何优势 属于华而不实。而且过于局限和当下的开源潮流是相悖的。在现在开源盛行的时代 谁会傻到从类库自己写?你用开源就得懂开源语言 java是主流 也有c++ c#。自己搞套编程语言 这些编程语言还是要学。除非有一天开源社区以中国人为主了 才有一点希望(希望也不大 因为编程语言本身的影响很小 从没见到哪个程序员是因为英文不好学不会编程语言的 大多都是英文不好看不来文档 这个和编程语言没有任何关系)  再往底层说 操作系统都是英文核心的 操作系统的消息系统 函数库都是英文的 编程语言是中文有屁用。这相当于电脑的电源键上写着中文 打开了电脑发现装了个英文系统。电源键上那两个中文有意义吗?所以中文操作系统也是个关键。  然而国家真的支持中文操作系统吗?国家要的是自主操作系统。说白了 高效 稳定 代码全控制 而且能快速上马才是关键。至于是不是中文的 根本无所谓。在目前有开源的linux和android 的情况下 另起炉灶开发操作系统的需求并不迫切。从无到有做个操作系统不是小工程 三千个高级程序员 通力合作五年未必能做得出 而且不一定有直接改造linux来得好
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  @MinorD
14:27:30  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了  -----------------------------  16位可以表示绝大多数符号,而像汉字康熙字典里的不少字只在经史子集里才用,可以作为特别字符,用于阅读软件。也就是将字符分成使用字符与阅读字符。日常字符只可在使用字符中选择,阅读字符只用于阅读软件显示古典文献。  变长、unicode的问题在于多字节,同时给ASCII以特殊地位。多字节就可能产生乱码。而给ASCII特殊地位又使得人们常常以精简系统为名而不支持全字符集,影响汉字等字符的应用。  中文计算机的意义、重点不在于用中文编程,而在于给中文与ASCII同等地位,创造与ASCII同样同等的使用环境。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @MinorD
14:53:10  看了你说的,不知道怎么评论好。  您说的第二个第三个问题,其实都不是问题。首先,现在的文本文件几乎没有ASCII编码的了。 大多数是UTF8, 你说的16位编码, 8位编码的问题根本不存在。对于二进制文件,根本没有byte这个概念。主流文件系统一个簇的大小至少有4K吧。把八位一个byte变成16位一个byte对磁盘空间毫无影响。 另外,一个byte是8位是由早期寄存器大小决定的。当然设计成八位和英文编码有一定关系。 但是现在计......  -----------------------------  你没有真的理解“字节”的概念。字节是计算机最基本的操作单位。不管机器字长是多少,16位、32位、64位,但都以8位作为寻址单位,以8位作为最小的操作单元。编码尽管是UTF还是unicode,但基本还是按8位操作的。如果所有的软件、编程、系统都排除8位操作,那就能更有利于中文的作用。
  中文计算机的意义、重点不在于用中文编程,而在于给中文与ASCII同等地位,创造与ASCII同样同等的使用环境。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @MinorD
14:53:10  看了你说的,不知道怎么评论好。  您说的第二个第三个问题,其实都不是问题。首先,现在的文本文件几乎没有ASCII编码的了。 大多数是UTF8, 你说的16位编码, 8位编码的问题根本不存在。对于二进制文件,根本没有byte这个概念。主流文件系统一个簇的大小至少有4K吧。把八位一个byte变成16位一个byte对磁盘空间毫无影响。 另外,一个byte是8位是由早期寄存器大小决定的。当然设计成八位和英文编码有一定关系。 但是现在计......  -----------------------------  @特别郁闷
16:51:38  你没有真的理解“字节”的概念。字节是计算机最基本的操作单位。不管机器字长是多少,16位、32位、64位,但都以8位作为寻址单位,以8位作为最小的操作单元。编码尽管是UTF还是unicode,但基本还是按8位操作的。如果所有的软件、编程、系统都排除8位操作,那就能更有利于中文的作用。  -----------------------------  我明白你的意思 底层的寻址是按照字节为单位的。但是这和中文英文没有任何关系。绝大多数的寻址不是为了表示文本 而是为了寻找函数入口 堆栈表。和中文英文都没有一分钱关系。现代操作系统早就是Unicode核心了 难道你没用过中文视窗?早期的确是有unicode编码问题。但是也是十年前的事情了。现在事实上的标准是utf8编码。不过是个霍夫曼树。中文的确没有英文字母的路径短 但是也误伤大雅。英文视窗一样可以很好的显示中文文本。  所以不要吧这些已经解决的问题作为技术难点来讨论。  还是那个观点 中文编程语言没有任何难度 也没有任何意义。就好像学数学一定要把xyz换成甲乙丙一样。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  @MinorD
14:27:30  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了  -----------------------------  @特别郁闷
16:42:46  16位可以表示绝大多数符号,而像汉字康熙字典里的不少字只在经史子集里才用,可以作为特别字符,用于阅读软件。也就是将字符分成使用字符与阅读字符。日常字符只可在使用字符中选择,阅读字符只用于阅读软件显示古典文献。  变长、unicode的问题在于多字节,同时给ASCII以特殊地位。多字节就可能产生乱码。而给ASCII特殊地位又使得人们常常以精简系统为名而不支持全字符集,影响汉字等字符的应用。  中文计算机的意义......  -----------------------------  变长并不会产生乱码 utf8编码本来就没有二义性。乱吧是因为编码和解码不匹配。这种情况十年前常见 现在已经基本消灭了。这不过是个标准的问题。和技术没什么关系。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @MinorD
14:53:10  看了你说的,不知道怎么评论好。  您说的第二个第三个问题,其实都不是问题。首先,现在的文本文件几乎没有ASCII编码的了。 大多数是UTF8, 你说的16位编码, 8位编码的问题根本不存在。对于二进制文件,根本没有byte这个概念。主流文件系统一个簇的大小至少有4K吧。把八位一个byte变成16位一个byte对磁盘空间毫无影响。 另外,一个byte是8位是由早期寄存器大小决定的。当然设计成八位和英文编码有一定关系。 但是现在计......  -----------------------------  @特别郁闷
16:51:38  你没有真的理解“字节”的概念。字节是计算机最基本的操作单位。不管机器字长是多少,16位、32位、64位,但都以8位作为寻址单位,以8位作为最小的操作单元。编码尽管是UTF还是unicode,但基本还是按8位操作的。如果所有的软件、编程、系统都排除8位操作,那就能更有利于中文的作用。  -----------------------------  @MinorD
17:12:54  我明白你的意思 底层的寻址是按照字节为单位的。但是这和中文英文没有任何关系。绝大多数的寻址不是为了表示文本 而是为了寻找函数入口 堆栈表。和中文英文都没有一分钱关系。现代操作系统早就是Unicode核心了 难道你没用过中文视窗?早期的确是有unicode编码问题。但是也是十年前的事情了。现在事实上的标准是utf8编码。不过是个霍夫曼树。中文的确没有英文字母的路径短 但是也误伤大雅。英文视窗一样可以很好的显示中文文......  -----------------------------  标题的第一句就说了,编程不是关键,这里不讨论中文编程。  8位的字节与16位的字节使汉字与英文字母处于不平等的地位,使用汉字会比英文困难的多。你用unicode,可能有很多系统就不支持unicode,比如各种嵌入式设备。这就影响了汉字的使用与积累。至于你的说霍夫曼树也不对。作为符号、变量名等等,并不排斥用字母。但作为函数名,或者汉字会更短。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  @MinorD
14:27:30  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了  -----------------------------  @特别郁闷
16:42:46  16位可以表示绝大多数符号,而像汉字康熙字典里的不少字只在经史子集里才用,可以作为特别字符,用于阅读软件。也就是将字符分成使用字符与阅读字符。日常字符只可在使用字符中选择,阅读字符只用于阅读软件显示古典文献。  变长、unicode的问题在于多字节,同时给ASCII以特殊地位。多字节就可能产生乱码。而给ASCII特殊地位又使得人们常常以精简系统为名而不支持全字符集,影响汉字等字符的应用。  中文计算机的意义......  -----------------------------  @MinorD
17:15:49  变长并不会产生乱码 utf8编码本来就没有二义性。乱吧是因为编码和解码不匹配。这种情况十年前常见 现在已经基本消灭了。这不过是个标准的问题。和技术没什么关系。  -----------------------------  为什么英文不会乱码?
    这是本网页的西里文显示。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  @MinorD
14:27:30  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了  -----------------------------  @特别郁闷
16:42:46  16位可以表示绝大多数符号,而像汉字康熙字典里的不少字只在经史子集里才用,可以作为特别字符,用于阅读软件。也就是将字符分成使用字符与阅读字符。日常字符只可在使用字符中选择,阅读字符只用于阅读软件显示古典文献。  变长、unicode的问题在于多字节,同时给ASCII以特殊地位。多字节就可能产生乱码。而给ASCII特殊地位又使得人们常常以精简系统为名而不支持全字符集,影响汉字等字符的应用。  中文计算机的意义......  -----------------------------  @MinorD
17:15:49  变长并不会产生乱码 utf8编码本来就没有二义性。乱吧是因为编码和解码不匹配。这种情况十年前常见 现在已经基本消灭了。这不过是个标准的问题。和技术没什么关系。  -----------------------------  @特别郁闷
17:29:36  为什么英文不会乱码?  -----------------------------  英文不会乱码, 是因为1967年在采用7位编码的时候, 英语字母先占用了ASCII码表前面的位置. 造成其他语言无位置可直接使用, 直接使用将造成混乱, 所以, 在早期, 就是其他的西方语言字母也是有可能会乱码的. 1981年之后,开始采用8位编码,才兼容了其他的西方语言中的非英语字母. 所以, 乱不乱码, 与语言无关, 只与先到后到及编码位长有关. ASCII码缺点明显,不能表达亚非文字, 所以, 后来才出现了UNICODE和UTF编码,并成为现代操作系统的主流, 因此, 在UNICODE和UTF的系统中,处理汉字和处理英文其实是完全相同的,只要有字库,就不会乱码 .....
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  @MinorD
14:27:30  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了  -----------------------------  @特别郁闷
16:42:46  16位可以表示绝大多数符号,而像汉字康熙字典里的不少字只在经史子集里才用,可以作为特别字符,用于阅读软件。也就是将字符分成使用字符与阅读字符。日常字符只可在使用字符中选择,阅读字符只用于阅读软件显示古典文献。  变长、unicode的问题在于多字节,同时给ASCII以特殊地位。多字节就可能产生乱码。而给ASCII特殊地位又使得人们常常以精简系统为名而不支持全字符集,影响汉字等字符的应用。  中文计算机的意义......  -----------------------------  @MinorD
17:15:49  变长并不会产生乱码 utf8编码本来就没有二义性。乱吧是因为编码和解码不匹配。这种情况十年前常见 现在已经基本消灭了。这不过是个标准的问题。和技术没什么关系。  -----------------------------  @特别郁闷
17:29:36  为什么英文不会乱码?  -----------------------------  @mrguo-23 18:21:25  英文不会乱码, 是因为1967年在采用7位编码的时候, 英语字母先占用了ASCII码表前面的位置. 造成其他语言无位置可直接使用, 直接使用将造成混乱, 所以, 在早期, 就是其他的西方语言字母也是有可能会乱码的. 1981年之后,开始采用8位编码,才兼容了其他的西方语言中的非英语字母. 所以, 乱不乱码, 与语言无关, 只与先到后到及编码位长有关. ASCII码缺点明显,不能表达亚非文字, 所以, 后来才出现了UNICODE和UTF编码,并成为现代操......  -----------------------------  使用unicode也有问题,一是比较麻烦,其编码译码都比较罗嗦,造成很多系统不支持,尤其是一些简单的系统。二,由于最小操作单位是字节,很可能造成字节的丢失或者错位而不能正常译码造成乱码。
  unicode所谓为英文字母省空间是个借口,实际是为英文字母谋取特殊地位。
  1、电脑只认识“有电”和“没电”。  2、“有电”和“没电”你可以用1和0来表示,也可以用A和B来表示,也可以用“有”和“无”来表示,反正随你喜欢。  3、编程只跟数学有关。编一个程序实质上就是做一个数学模型。  4、之所以编程要学英文,是因为前人开发的许多好用的函数库和注释基本都是英文。学会英文看这些函数库和注释会比较轻松。  5、在电脑刚开始发展的时候,存储器每一个位都很珍贵,所以什么都要节省。这就是单字节的ASCII码出现的背景。到后来技术进步了,单字节就跟不上时代了。就比如刚开始只建了单车道,到后来车多了,单车道必须得扩建。没错,ASCII才127个符号位,连英文自己都不够用。最后还得弄UNICODE。
  @和平卫士2018
17:47:22  早就有汉语编程语言了,所谓易语言,不过是个垃圾,本身就是建立在c的基础上的  -----------------------------  @晓子-22 19:24:54  汉语很伟大但也有缺点,曾经在一些方面不如英语。比如不方便建立数学公式,编程语言、计算机键盘录入,确实一定程度制约了现代科学在中国萌芽。但现在这些已经都克服了,因为有了汉语拼音,现在汉语弥补了自己的缺点进一步完善了,已经开始日益显露其巨大优势,语音录入、会意词汇方便跨学科。汉语已经包容了英语,英语却不能包容汉语。  -----------------------------  又在胡说八道,我们的数学不差,只不过中断了而已,去看看宋代时候的数学
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  @MinorD
14:27:30  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了  -----------------------------  @特别郁闷
16:42:46  16位可以表示绝大多数符号,而像汉字康熙字典里的不少字只在经史子集里才用,可以作为特别字符,用于阅读软件。也就是将字符分成使用字符与阅读字符。日常字符只可在使用字符中选择,阅读字符只用于阅读软件显示古典文献。  变长、unicode的问题在于多字节,同时给ASCII以特殊地位。多字节就可能产生乱码。而给ASCII特殊地位又使得人们常常以精简系统为名而不支持全字符集,影响汉字等字符的应用。  中文计算机的意义......  -----------------------------  @MinorD
17:15:49  变长并不会产生乱码 utf8编码本来就没有二义性。乱吧是因为编码和解码不匹配。这种情况十年前常见 现在已经基本消灭了。这不过是个标准的问题。和技术没什么关系。  -----------------------------  @特别郁闷
17:29:36  为什么英文不会乱码?  -----------------------------  @mrguo2012
18:21:25  英文不会乱码, 是因为1967年在采用7位编码的时候, 英语字母先占用了ASCII码表前面的位置. 造成其他语言无位置可直接使用, 直接使用将造成混乱, 所以, 在早期, 就是其他的西方语言字母也是有可能会乱码的. 1981年之后,开始采用8位编码,才兼容了其他的西方语言中的非英语字母. 所以, 乱不乱码, 与语言无关, 只与先到后到及编码位长有关. ASCII码缺点明显,不能表达亚非文字, 所以, 后来才出现了UNICODE和UTF编码,并成为现代操......  -----------------------------  @特别郁闷
19:10:14  使用unicode也有问题,一是比较麻烦,其编码译码都比较罗嗦,造成很多系统不支持,尤其是一些简单的系统。二,由于最小操作单位是字节,很可能造成字节的丢失或者错位而不能正常译码造成乱码。  -----------------------------  存储器在早期很昂贵的, 所以, 最早的计算机能记忆和录入0和1,也是没有英文字母的,程序设计均使用机器语言。程序员们将用0, 1数字编成的程序代码打在纸带或卡片上,1打孔,0不打孔,再将程序通过纸带机或卡片机输入计算机,进行运算。  随着科技的发展,存储器成本的下降,才有了条件接受英文字母的字库,所以,英文字母的字库和汉字字库一样,都不是计算机的核心,只是计算机的外延.   在今天,汉字字库比英文字库所需要的空间确实要大一点,但是,目前的技术已经发展到了G时代,也就是说,今天买一个KB级的芯片,和买一个MB级的芯片,在成本上看,MB级的芯片的价格还会更低一点,因为,MB级的芯片的需求量远大与KB级的芯片,规模生产后成本下降,而KB级的芯片存在的意义仅在于兼用旧设备,所以,价格较高! 同理,再过几年,GB级芯片价格,就会低于MB级芯片的价格,对于任何小系统而言,存储器只会多余,而不会不足!  所以,汉字字库比英文字库多占那么一点的空间更不就不是问题.不仅不是问题,相反,还能降低成本, 在相同功能的情况下, 价格较低, 且还能显示包括汉字在内的多语言的智能产品,一定比只能显示英文的产品更能得到全球消费者的喜爱!  事实上,目前大量的智能产品就是LINUX内核或类LINUX内核的,如:安卓手机手表电视机等, 而LINUX系统默认的内核编码就是能同时支持全球语言的UTF8 !
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  @MinorD
14:27:30  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了  -----------------------------  @特别郁闷
16:42:46  16位可以表示绝大多数符号,而像汉字康熙字典里的不少字只在经史子集里才用,可以作为特别字符,用于阅读软件。也就是将字符分成使用字符与阅读字符。日常字符只可在使用字符中选择,阅读字符只用于阅读软件显示古典文献。  变长、unicode的问题在于多字节,同时给ASCII以特殊地位。多字节就可能产生乱码。而给ASCII特殊地位又使得人们常常以精简系统为名而不支持全字符集,影响汉字等字符的应用。  中文计算机的意义......  -----------------------------  @MinorD
17:15:49  变长并不会产生乱码 utf8编码本来就没有二义性。乱吧是因为编码和解码不匹配。这种情况十年前常见 现在已经基本消灭了。这不过是个标准的问题。和技术没什么关系。  -----------------------------  @特别郁闷
17:29:36  为什么英文不会乱码?  -----------------------------  @mrguo2012
18:21:25  英文不会乱码, 是因为1967年在采用7位编码的时候, 英语字母先占用了ASCII码表前面的位置. 造成其他语言无位置可直接使用, 直接使用将造成混乱, 所以, 在早期, 就是其他的西方语言字母也是有可能会乱码的. 1981年之后,开始采用8位编码,才兼容了其他的西方语言中的非英语字母. 所以, 乱不乱码, 与语言无关, 只与先到后到及编码位长有关. ASCII码缺点明显,不能表达亚非文字, 所以, 后来才出现了UNICODE和UTF编码,并成为现代操......  -----------------------------  @特别郁闷
19:10:14  使用unicode也有问题,一是比较麻烦,其编码译码都比较罗嗦,造成很多系统不支持,尤其是一些简单的系统。二,由于最小操作单位是字节,很可能造成字节的丢失或者错位而不能正常译码造成乱码。  -----------------------------  @mrguo-24 10:01:19  存储器在早期很昂贵的, 所以, 最早的计算机能记忆和录入0和1,也是没有英文字母的,程序设计均使用机器语言。程序员们将用0, 1数字编成的程序代码打在纸带或卡片上,1打孔,0不打孔,再将程序通过纸带机或卡片机输入计算机,进行运算。  随着科技的发展,存储器成本的下降,才有了条件接受英文字母的字库,所以,英文字母的字库和汉字字库一样,都不是计算机的核心,只是计算机的外延.  在今天,汉字字库比英文字库所需要的......  -----------------------------  UTF8里,ASCII的地位是特殊的。
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  @MinorD
14:27:30  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了  -----------------------------  @特别郁闷
16:42:46  16位可以表示绝大多数符号,而像汉字康熙字典里的不少字只在经史子集里才用,可以作为特别字符,用于阅读软件。也就是将字符分成使用字符与阅读字符。日常字符只可在使用字符中选择,阅读字符只用于阅读软件显示古典文献。  变长、unicode的问题在于多字节,同时给ASCII以特殊地位。多字节就可能产生乱码。而给ASCII特殊地位又使得人们常常以精简系统为名而不支持全字符集,影响汉字等字符的应用。  中文计算机的意义......  -----------------------------  @MinorD
17:15:49  变长并不会产生乱码 utf8编码本来就没有二义性。乱吧是因为编码和解码不匹配。这种情况十年前常见 现在已经基本消灭了。这不过是个标准的问题。和技术没什么关系。  -----------------------------  @特别郁闷
17:29:36  为什么英文不会乱码?  -----------------------------  @mrguo2012
18:21:25  英文不会乱码, 是因为1967年在采用7位编码的时候, 英语字母先占用了ASCII码表前面的位置. 造成其他语言无位置可直接使用, 直接使用将造成混乱, 所以, 在早期, 就是其他的西方语言字母也是有可能会乱码的. 1981年之后,开始采用8位编码,才兼容了其他的西方语言中的非英语字母. 所以, 乱不乱码, 与语言无关, 只与先到后到及编码位长有关. ASCII码缺点明显,不能表达亚非文字, 所以, 后来才出现了UNICODE和UTF编码,并成为现代操......  -----------------------------  @特别郁闷
19:10:14  使用unicode也有问题,一是比较麻烦,其编码译码都比较罗嗦,造成很多系统不支持,尤其是一些简单的系统。二,由于最小操作单位是字节,很可能造成字节的丢失或者错位而不能正常译码造成乱码。  -----------------------------  @mrguo2012
10:01:19  存储器在早期很昂贵的, 所以, 最早的计算机能记忆和录入0和1,也是没有英文字母的,程序设计均使用机器语言。程序员们将用0, 1数字编成的程序代码打在纸带或卡片上,1打孔,0不打孔,再将程序通过纸带机或卡片机输入计算机,进行运算。  随着科技的发展,存储器成本的下降,才有了条件接受英文字母的字库,所以,英文字母的字库和汉字字库一样,都不是计算机的核心,只是计算机的外延.  在今天,汉字字库比英文字库所需要的......  -----------------------------  @特别郁闷
10:12:47  UTF8里,ASCII的地位是特殊的。  -----------------------------  没有什么特殊的, 无伦英文字母还是汉字,都是一个编码占用了一个编码空间,只不过为了兼顾历史文档的兼容性,让英文字母在编码空间中排在了前面,由于排在了前面,编码高位的0无意义,可以省略, 就如:0005可以省略写成5, 以达到和就文档兼容的目的.
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年26个英文字母用8位也是浪费。至于说容量减半是只看到英文文本,不知道除了英文文本,其它基本不受影响吗?一个整数,8位用4个字节,16位就只需2个zije,就可以同样表示。  向上兼容是个问题,但也不是不能接受。DOS程序在WINDOWS下也不能运行,但WINDOWS一样发行。大不了做个虚拟机。  -----------------------------  @UKL_116TNT
12:53:19  单个数字也是8bit字—— 一字节!  0-00 00 00 00
1-00 00 00 01
2-00 00 00 10 3-00 00 00 11  4-00 00 01 00
5-00 00 01 01
6-00 00 01 10 7-00 00 01 11  8-00 00 10 00
9-00 00 10 01  这是简编码的数字,8bit编码字符允许有256个(从00 00 00 00到11 11 11 11)  而256个字根本不能将汉字表达清楚,并且在编译的逻辑电路上先发制人的美英已经将自己的标准普及开来,256个字符空间在80年代大......  -----------------------------  @MinorD
14:27:30  16Bit关键也不够。因为世界上不止汉字一个体系。造个电脑体系只能用汉字 能推广成世界标准吗?。现在都在用。uTF32了 说明要32位才够。当然 可变长的utf8用得更普遍 不过是一种用运算能力来节省空间的折中罢了  -----------------------------  @特别郁闷
16:42:46  16位可以表示绝大多数符号,而像汉字康熙字典里的不少字只在经史子集里才用,可以作为特别字符,用于阅读软件。也就是将字符分成使用字符与阅读字符。日常字符只可在使用字符中选择,阅读字符只用于阅读软件显示古典文献。  变长、unicode的问题在于多字节,同时给ASCII以特殊地位。多字节就可能产生乱码。而给ASCII特殊地位又使得人们常常以精简系统为名而不支持全字符集,影响汉字等字符的应用。  中文计算机的意义......  -----------------------------  @MinorD
17:15:49  变长并不会产生乱码 utf8编码本来就没有二义性。乱吧是因为编码和解码不匹配。这种情况十年前常见 现在已经基本消灭了。这不过是个标准的问题。和技术没什么关系。  -----------------------------  @特别郁闷
17:29:36  为什么英文不会乱码?  -----------------------------  @mrguo2012
18:21:25  英文不会乱码, 是因为1967年在采用7位编码的时候, 英语字母先占用了ASCII码表前面的位置. 造成其他语言无位置可直接使用, 直接使用将造成混乱, 所以, 在早期, 就是其他的西方语言字母也是有可能会乱码的. 1981年之后,开始采用8位编码,才兼容了其他的西方语言中的非英语字母. 所以, 乱不乱码, 与语言无关, 只与先到后到及编码位长有关. ASCII码缺点明显,不能表达亚非文字, 所以, 后来才出现了UNICODE和UTF编码,并成为现代操......  -----------------------------  @特别郁闷
19:10:14  使用unicode也有问题,一是比较麻烦,其编码译码都比较罗嗦,造成很多系统不支持,尤其是一些简单的系统。二,由于最小操作单位是字节,很可能造成字节的丢失或者错位而不能正常译码造成乱码。  -----------------------------  @mrguo2012
10:01:19  存储器在早期很昂贵的, 所以, 最早的计算机能记忆和录入0和1,也是没有英文字母的,程序设计均使用机器语言。程序员们将用0, 1数字编成的程序代码打在纸带或卡片上,1打孔,0不打孔,再将程序通过纸带机或卡片机输入计算机,进行运算。  随着科技的发展,存储器成本的下降,才有了条件接受英文字母的字库,所以,英文字母的字库和汉字字库一样,都不是计算机的核心,只是计算机的外延.  在今天,汉字字库比英文字库所需要的......  -----------------------------  @特别郁闷
10:12:47  UTF8里,ASCII的地位是特殊的。  -----------------------------  @mrguo-24 11:10:08  没有什么特殊的, 无伦英文字母还是汉字,都是一个编码占用了一个编码空间,只不过为了兼顾历史文档的兼容性,让英文字母在编码空间中排在了前面,由于排在了前面,编码高位的0无意义,可以省略, 就如:0005可以省略写成5, 以达到和就文档兼容的目的.  -----------------------------  高位是0就可以省略?假设5的编码是0005,按字节可以省略成05。而“汉”字的编码是0505。那么,你收到三个字节:05 05 05是什么意思?是“555”?还是“汉5”还是“5汉”?
  @UKL_116TNT
11:08:12  根本不现实,计算机底层语言是0,1(闭,开)。  然后是通过硬件接口实现转化为底层语言的高级汇编语言  (如C语言及其扩展,JAVA,VB之类)  很多人觉得汇编语是英语——错了!是美语!  二战后英国衰败,虽然制造了最早的可编程设备——现代电脑雏形  但是并没有走出实验室——再说一次——没有走出实验室  走出实验室的是美国的"费城怪物",之后苏联跟进,但苏联不幸的被美国的战略欺骗带进了“三进制......  -----------------------------  @特别郁闷
12:35:21  你说的三点前两个没有问题。全部统一成16位是会有一些浪费,但在目前技术基础上完全可以接受。当年}

我要回帖

更多关于 键盘上的顿号怎么打 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信