Bevor wir uns der Darstellung von Zeichen und Zahlen im Detail widmen, müssen wir zuerst verstehen, wie Daten im Rechner allgemein abgelegt werden. Bei Digitalrechnern erfolgt die Informationsdarstellung in binärer Form. Die kleinste Informationseinheit ist das Bit (engl. binary digit). Es kann zwei Zustände annehmen, die mit 0 und 1 bezeichnet werden. Technisch realisiert werden diese Zustände z.B. durch zwei unterschiedliche Spannungspegel auf einer Signalleitung oder zwei verschiedene Magnetisierungsrichtungen auf einem Informationsträger (Speichermedium). Mehrere Bits werden zu größeren Informationseinheiten zusammengefaßt. So besteht ein Halbbyte (nibble) aus 4 Bits und ein Byte aus 8 Bit. Das Byte ist heute in der Regel auch die kleinste adressierbare Speichereinheit (Speicherzelle).
Bei der Darstellung von Informationseinheiten werden die einzelnen Bits von rechts nach links, beginnend mit Null, durchnumeriert. Bit 0 wird als niedrigstwertiges Bit (LSB -- engl. least significant bit), das Bit mit dem höchsten Index als höchstwertiges Bit (MSB -- engl. most significant bit) bezeichnet:
|
Da ein Bit genau zwei verschiedene Zustände annehmen kann, gibt es für ein Byte genau verschiedene Zustände (Bitmuster). Mit Hilfe eines Bytes lassen sich also 256 verschiedene Gegenstände, wie Zeichen, Kommandos oder Zahlen bezeichnen.