注意: この記事は1年以上前に掲載されたものです。情報が古い場合がありますのでお気を付け下さい。
今日のコンピューターにおいては、ほぼ全てのコンピューターアーキテクチャーとして「1バイト=8ビット」という図式が成立しているが、実はそれは、以前はデファクトスタンダードであって、本来は8ビット以外のものも含めた文字を表す単位が1バイトになった。
初期のコンピューターにおいては、6〜12ビットのものがあり、メインフレームやミニコンピューターにおいても、6、7、9ビットといったものもあったという。
しかしながら、当時メインフレームで中心的存在にあったIBM、その中でもSystem/360が8ビットで1バイトとしていたことで、それに合わせる形で1バイト=8ビットとすることが一般的になったという。その後、今日においては1バイトは8ビットとなることが一般的になったに過ぎない。
その経緯から、1バイトは8ビットとは限らないため、明示的に区別するために「オクテット」という用語も使われる。こちらは8ビット固定である。
こういったように、コンピューターにおいても、気になったことを調べてみると、何故そうなったのかというのもわかるようになるので、是非調べてみると良いだろう。
ウェブマスター。本ブログでITを中心にいろいろな情報や意見などを提供しています。主にスマートフォン向けアプリやウェブアプリの開発を携わっています。ご用の方はコメントかコンタクトフォームにて。