描述问题
自己的猜想:
当时的CPU一次能处理8bit的数据
英文世界的所有字符,
7bit
完全可以搞定, 所以使用8bit
已经尝试哪些方法仍然没有解决(附上相关链接)
已搜索:
why 1Byte=8bit
CPU history
问题简化
计算机的二进制基础,决定了一个数为2的n次方是最方便的做法,节省很多计算资源。2的1次2次方不够用,然后就3次方。哪怕是7位的ascii,其实也是凑足8bit。
1.ASCII 码是 7bit+1bit 校验的格式
2.IBM为System/360设计了一套8位EBCDIC编码,涵盖了数字、大小写字母和大部分常用符号,同时又兼容广泛用于打孔卡的6位BCDIC编码。System/360很成功,也奠定了字符存储单位采用8位长度的基础