1バイト=8ビットはデファクトスタンダードだった

注意: この記事は1年以上前に掲載されたものです。情報が古い場合がありますのでお気を付け下さい。

今日のコンピューターにおいては、ほぼ全てのコンピューターアーキテクチャーとして「1バイト=8ビット」という図式が成立しているが、実はそれは、以前はデファクトスタンダードであって、本来は8ビット以外のものも含めた文字を表す単位が1バイトになった。

初期のコンピューターにおいては、6〜12ビットのものがあり、メインフレームやミニコンピューターにおいても、6、7、9ビットといったものもあったという。

しかしながら、当時メインフレームで中心的存在にあったIBM、その中でもSystem/360が8ビットで1バイトとしていたことで、それに合わせる形で1バイト=8ビットとすることが一般的になったという。その後、今日においては1バイトは8ビットとなることが一般的になったに過ぎない。

その経緯から、1バイトは8ビットとは限らないため、明示的に区別するために「オクテット」という用語も使われる。こちらは8ビット固定である。

こういったように、コンピューターにおいても、気になったことを調べてみると、何故そうなったのかというのもわかるようになるので、是非調べてみると良いだろう。

タイトルとURLをコピーしました