Der Prozess der Konvertierung von Daten von einer Form in eine andere wird als Kodierung bezeichnet. Es wird verwendet, um die Daten so zu transformieren, dass sie von verschiedenen Systemen unterstützt und verwendet werden können. Die Kodierung funktioniert ähnlich wie die Umrechnung der Temperatur von Celsius in Fahrenheit, da sie lediglich in eine andere Form umgewandelt wird, der ursprüngliche Wert jedoch immer gleich bleibt. Die Kodierung wird hauptsächlich in zwei Bereichen verwendet:
Hinweis: Die Verschlüsselung unterscheidet sich von der Verschlüsselung, da ihr Hauptzweck nicht darin besteht, die Daten zu verbergen, sondern sie in ein Format zu konvertieren, damit sie ordnungsgemäß verwendet werden können.
In diesem Thema werden wir die verschiedenen Arten von Codierungstechniken diskutieren, die in der Informatik verwendet werden.
Art der Kodierungstechnik
Zeichenkodierung
Bei der Zeichenkodierung werden Zeichen in Bytes kodiert . Es informiert die Computer darüber, wie sie die Nullen und Einsen in echte Zeichen, Zahlen und Symbole interpretieren. Der Computer versteht nur binäre Daten; Daher ist es erforderlich, diese Zeichen in numerische Codes umzuwandeln. Um dies zu erreichen, wird jedes Zeichen in Binärcode umgewandelt und hierfür werden Textdokumente mit Kodierungstypen gespeichert. Dies kann durch die Kombination von Zahlen und Zeichen erfolgen. Wenn wir keine Zeichenkodierung anwenden, zeigt unsere Website die Zeichen und den Text nicht im richtigen Format an. Dadurch wird die Lesbarkeit beeinträchtigt und die Maschine wäre nicht in der Lage, die Daten korrekt zu verarbeiten. Darüber hinaus stellt die Zeichenkodierung sicher, dass jedes Zeichen eine korrekte Darstellung im Computer- oder Binärformat hat.
Es gibt verschiedene Arten von Zeichenkodierungstechniken, die im Folgenden aufgeführt sind:
HTML-Kodierung
Die HTML-Codierung wird verwendet, um eine HTML-Seite im richtigen Format anzuzeigen. Durch die Kodierung erfährt ein Webbrowser, welcher Zeichensatz verwendet werden soll.
In HTML werden im HTML-Markup verschiedene Zeichen verwendet, z. B. . Um diese Zeichen als Inhalt zu kodieren, müssen wir eine Kodierung verwenden.
URL-Kodierung
URL-Codierung (Uniform Resource Locator) wird verwendet Konvertieren Sie Zeichen in ein solches Format, dass sie über das Internet übertragen werden können . Es wird auch als Prozentkodierung bezeichnet. Die URL-Kodierung wird durchgeführt, um die URL mithilfe des ASCII-Zeichensatzes an das Internet zu senden. Nicht-ASCII-Zeichen werden durch ein %, gefolgt von den Hexadezimalziffern ersetzt.
UNICODE-Kodierung
Unicode ist ein Kodierungsstandard für einen universellen Zeichensatz. Es ermöglicht das Kodieren, Darstellen und Bearbeiten des Textes, der in den meisten weltweit verfügbaren Sprachen oder Schriftsystemen dargestellt wird. Es stellt für jedes Zeichen in jeder unterstützten Sprache einen Codepunkt oder eine Codenummer bereit. Es kann ungefähr alle möglichen Zeichen in allen Sprachen darstellen. Eine bestimmte Folge von Bits wird als Kodierungseinheit bezeichnet.
Ein UNICODE-Standard kann 8, 16 oder 32 Bit zur Darstellung der Zeichen verwenden.
Der Unicode-Standard definiert das Unicode Transformation Format (UTF) zur Kodierung der Codepunkte.
Der UNICODE-Kodierungsstandard verfügt über die folgenden UTF-Schemata:
UTF8 wird durch den UNICODE-Standard definiert, eine Zeichenkodierung mit variabler Breite, die in der elektronischen Kommunikation verwendet wird. UTF-8 ist in der Lage, alle 1.112.064 gültigen Zeichencodepunkte in Unicode mit ein bis vier Ein-Byte-Codeeinheiten (8 Bit) zu kodieren.
Die UTF16-Kodierung stellt die Codepunkte eines Zeichens mithilfe einer von zwei 16-Bit-Ganzzahlen dar.
Die UTF32-Kodierung stellt jeden Codepunkt als 32-Bit-Ganzzahlen dar.
Base64-Kodierung
Base64-Kodierung wird verwendet, um Binärdaten in äquivalente ASCII-Zeichen zu kodieren. Die Base64-Kodierung wird im Mail-System verwendet, da Mail-Systeme wie SMTP nicht mit Binärdaten arbeiten können, da sie nur ASCII-Textdaten akzeptieren. Es wird auch bei der einfachen HTTP-Authentifizierung verwendet, um die Anmeldeinformationen zu verschlüsseln. Darüber hinaus wird es auch verwendet, um die Binärdaten in Cookies und andere Parameter zu übertragen, um Daten unlesbar zu machen und Manipulationen zu verhindern. Wenn ein Bild oder eine andere Datei ohne Base64-Kodierung übertragen wird, wird es beschädigt, da das Mailsystem nicht in der Lage ist, mit Binärdaten umzugehen.
Base64 stellt die Daten in Blöcken von 3 Bytes dar, wobei jedes Byte 8 Bits enthält; daher repräsentiert es 24 Bit. Diese 24 Bits sind in vier Gruppen zu je 6 Bits unterteilt. Jede dieser Gruppen oder Blöcke wird in einen entsprechenden Base64-Wert konvertiert.
ASCII-Kodierung
Amerikanischer Standardcode für den Informationsaustausch (ASCII) ist eine Art Zeichenkodierung. Es war der erste Zeichenkodierungsstandard, der im Jahr 1963 veröffentlicht wurde.
Der ASCII-Code wird verwendet, um englische Zeichen als Zahlen darzustellen, wobei jedem Buchstaben eine Zahl zugeordnet ist 0 bis 127. Die meisten modernen Zeichenkodierungsschemata basieren auf ASCII, unterstützen jedoch viele zusätzliche Zeichen. Es handelt sich um eine Einzelbyte-Kodierung, bei der nur die unteren 7 Bits verwendet werden. In einer ASCII-Datei wird jedes alphabetische, numerische oder Sonderzeichen durch eine 7-Bit-Binärzahl dargestellt. Jedes Zeichen der Tastatur hat einen entsprechenden ASCII-Wert.
Bild- und Audio- und Videokodierung
Um Speicherplatz zu sparen, werden Bild-, Audio- und Videokodierung durchgeführt. Eine Mediendatei wie Bild, Audio und Video wird codiert, um sie in einem effizienteren und komprimierteren Format zu speichern.
Diese verschlüsselten Dateien enthalten den gleichen Inhalt in meist ähnlicher Qualität, jedoch in komprimierter Größe, sodass sie auf weniger Platz gespeichert, einfach per E-Mail übertragen oder auf das System heruntergeladen werden können.
Wir können es als . verstehen. Die WAV-Audiodatei wird in eine MP3-Datei konvertiert, um die Größe um 1/10 zu reduzierenThauf seine ursprüngliche Größe.