首页 > 计算机使用8bit作为一个单元,历史原因有哪些?

计算机使用8bit作为一个单元,历史原因有哪些?

描述问题

自己的猜想:

  1. 当时的CPU一次能处理8bit的数据

  2. 英文世界的所有字符,7bit完全可以搞定, 所以使用8bit

已经尝试哪些方法仍然没有解决(附上相关链接)

已搜索:

  1. why 1Byte=8bit

  2. CPU history

问题简化


计算机的二进制基础,决定了一个数为2的n次方是最方便的做法,节省很多计算资源。2的1次2次方不够用,然后就3次方。哪怕是7位的ascii,其实也是凑足8bit。


1.ASCII 码是 7bit+1bit 校验的格式
2.IBM为System/360设计了一套8位EBCDIC编码,涵盖了数字、大小写字母和大部分常用符号,同时又兼容广泛用于打孔卡的6位BCDIC编码。System/360很成功,也奠定了字符存储单位采用8位长度的基础

【热门文章】
【热门文章】