Von Unicode hat wohl jeder PC- und Internetnutzer schon mal gehört. Doch wofür wird Unicode überhaupt benutzt? Was ist ASCII, was sind Sonderzeichen? In diesem Text werden genau diese Fragen beantwortet.
Unicode ist ein Standard für elektronische Schriftzeichen. Mit der laufenden Digitalisierung der letzten Jahrzehnte wurde schon früh ein Standard benötigt, um dem Chaos der ersten Stunden Einhalt zu gebieten. Die Organisation hinter Unicode hat sich als Ziel gesetzt, alle Schriftzeichen aus allen Kulturen digital verfügbar zu machen. Hier in Deutschland nutzen wir das lateinische Alphabet von A bis Z inklusive mancher Sonderzeichen wie das Eszett (ß) und Umlaute wie ä, ö und ü. Es handelt sich bei der deutschen Schriftsprache also um ein erweitertes Alphabet – im Gegensatz zur englischen Sprache, die lediglich die Buchstaben von A bis Z kennt und ohne Umlaute auskommt.
Deutsche Sonderzeichen
Wenn Computer nun ausschließlich die englische Schriftsprache unterstützen würden, könnten deutsche Nutzer die deutschen Umlaute und das Eszett gar nicht benutzen. Statt des richtigen Buchstabens würde lediglich ein Kästchen auf dem Bildschirm erscheinen Hier kommt Unicode ins Spiel: Bereits 1988 gab es erste Überlegungen, einen einheitlichen Standard für alle Schriftzeichen der Welt zu ermöglichen. Drei Jahre später wurde Unicode in der Version 1.0.0 veröffentlicht. Seitdem wird der Standard kontinuierlich weiterentwickelt und neue Schriftsprachen hinzugefügt – zuletzt im Juni 2016.
Nun gibt es auf der Welt unzählige Sprachsysteme, die zum Teil gar nichts mit dem hier und in anderen Ländern genutzten lateinischen Alphabet zu tun haben. Während sich deutsche Nutzer unter Umständen damit behelfen könnten, statt einem Eszett ein Doppel-S zu schreiben, stehen Menschen z.B. aus asiatischen Ländern vor ganz anderen Problemen, da die Schrift auf gänzlich anderen Zeichen basiert. Unicode schafft hier Abhilfe.
Sonderzeichen sind dabei keinesfalls nur Buchstaben, sondern alle Zeichen, die z.B. auf einer Tastatur zu finden sind. Dazu gehören Satzzeichen wie Punkt und Komma oder weitere Symbole wie das Ampersand (&) und das @-Zeichen, Dollar- und Euro-Symbole.
Wie erwähnt handelt es sich bei Unicode um Standards für Schriftsprachen, d.h. das gesprochene Wort ist nicht relevant. Auf der anderen Seite gibt es Schriftsprachen, die gar nicht gesprochen werden. Ein gutes Beispiel dafür sind Emojis. Die kleinen Bilder, die man von Smartphones und Apps wie WhatsApp, Facebook und Snapchat kennt, sind deshalb ebenfalls relevant für Unicode und wurden entsprechend implementiert.
ASCII vs. Unicode
Neben Unicode gibt es noch ASCII, was als Abkürzung für „American Standard Code for Information Interchange“ steht. ASCII ist dabei als eine Art ursprüngliche und rudimentäre Version von Unicode zu sehen, auch wenn die beiden System nicht viel miteinander zu tun haben. Mit ASCII hat das ANSI (American National Standards Institute) bereits 1963 erste Standards für das lateinische Alphabet inklusive arabischer Ziffern (0 bis 9) und Satzzeichen definiert. Hinzu kamen ASCII Zeichen, die üblicherweise auf einer Schreibmaschine zu finden sind. Insgesamt wurden 94 Zeichen definiert, von denen 32, also gut ein Drittel, Sonderzeichen sind.
Hierbei ging es wie bei Unicode um eine Standardisierung – allerdings nicht mit einem weltweiten Anspruch, alle Schriftsprachen einzugliedern. Viel mehr ging es darum, überhaupt einen ersten einheitlichen Standard für Computer zu entwickeln.
Damals wurden viele Terminals und Drucker ausschließlich mit ASCII angesteuert. Heute ist ASCII nicht mehr relevant, da mit Unicode ein deutlich umfangreichere Standard geschaffen wurde. ASCII hatte mit der verständlichen Fokussierung auf die englische Sprache bereits mit deutschen Sonderzeichen und Umlauten ein Problem, da diese nicht unterstützt wurden. In der Praxis führte dies schon frühzeitig zu Problemen, da z.B. die ASCII-Position 93 für die eckige Klammer („]“) verwendet wurde, in der deutschen Zeichensatzvariante allerdings der Umlaut Ü an dieser Stelle zu finden war. Der Startbildschirm des Apple ][ wurde damit in der deutschen Version zum Apple Ü bzw. Apple ÜÄ.
Zusammengefasst: Sonderzeichen sind alle Zeichen bis auf lateinische Buchstaben (A bis Z) und Nummern (0 bis 9). Beispiele sind deutsche Umlaute (Ä, Ö, Ü) und das Euro-Symbol. ASCII hat vor über 50 Jahren dafür gesorgt, dass Zeichen standardisiert werden, um den Austausch von Informationen zu vereinfachen und eine Allgemeingültigkeit herzustellen. Unicode sorgt seit knapp 30 Jahren dafür, dass digitale Zeichen aller Schriftsysteme standardisiert werden. Die Entwicklung ist noch nicht abgeschlossen.