LU02b- Binäre Zeichencodes: Einführung

Binäre Zeichencodes - Einführung

Ein Zeichencode (oder: die Zeichencodierung) beschreibt die binäre Speicherung von Zeichen (character) fest. Dazu legt man für jedes Schriftzeichen einen eindeutigen Binärcode fest.

Quelle: praxistipps-images.chip.de

Im ASCII-Zeichencode wird dem Buchstaben A der hexadezimale Code 4116 zugewiesen. Dies entspricht

  • 0100 00012
  • 6510

ASCII

Der ASCII-Code verwendet 7 Bits und umfasst 128 Buchstaben, Ziffern und Symbole der amerikanischen Tastatur.

ANSI-Codepage

Da der ASCII-Code keine Umlaute (ä, é, …) und nur die Währungssymbole für $ und £ enthält, war er für den Rest der Welt unzureichend. Daher wurden verschiedene Erweiterungen (sogenannte Codepages) für unterschiedliche Sprachräume entwickelt. Diese Erweiterungen umfassen 256 Zeichen, wobei die ersten 128 Zeichen mit dem ASCII-Code übereinstimmen.

Für westeuropäische Sprachen ist die Codepage 850 bzw. ISO 8859-1 relevant.

Unicode

Unicode ist ein internationaler Standard mit dem Ziel, jedem Schriftzeichen der Welt einen eindeutigen Code zuzuweisen. Dadurch sollen unterschiedliche, inkompatible Zeichencodierungen abgeschafft werden.

Die Zeichencodierung im Computer wird in verschiedenen Unicode Transformation Format (kurz UTF) festgelegt.

UTF-8
  • Mindestens 8 Bit pro Zeichen
  • Maximal 32 Bit pro Zeichen
  • Verwendung: WWW, Email
UTF-16
  • Mindestens 16 Bit pro Zeichen
  • Maximal 32 Bit pro Zeichen
  • Verwendung: Programmiersprachen (z.B. Java), Betriebssysteme

Marcel Suter

  • modul/m114/learningunits/lu02/binaerezeichencodeseinfuehrung.txt
  • Zuletzt geändert: 2024/03/28 14:07
  • von 127.0.0.1