Datenkompression

aus Kamelopedia, der wüsten Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Datenkompression ist ein Vorgang, bei dem Informationen über Kamele untersucht, zerlegt, die Zerlegung analysiert, umformuliert, neu kodiert und in kürzerer Fassung wieder zusammengerottet werden.

Eingeweihte unterscheiden zwischen verlustloser und verlustbehafteter Kompression.

Die verlustlose Datenkompression

Sie ermöglicht es dem Empfänger des zusammengeprügelten Kamels mit Geschickt das Ding wieder schnell und schmerzfrei zu entfalten, damit es danach wie zuvor ist. Diese Kompressionsart ist nicht so effektiv und langsamer und das Ergebnis ist schwerer zu erreichen als die folgende Art.

Bekannte Algorithmen/Methoden:

  • Zip
  • 7zip
  • gz
  • lzh
  • rle
  • defrag

Die verlustbehaftete Kompression

Normal Modell

Diese Behandlung von Daten ist wesentlich leichter zu erreichen, da auf das Ergebnis kaum Rücksicht genommen werden muss. Beim Zusammenprügeln eines Kamels kann also ruhig ein Höcker abbrechen, wenn das Ergebnis in einer anderen Perspektive betrachtet wird, fällt das garnicht auf.

Bekannte Algorithmen/Methoden:

  • jpeg - Bilddaten werden farblich zusammengefaßt. So kann man bei einfachen Fotos aus 2MB dann 60kB machen.
  • mp# (wobei # für Zahlen zwischen 2 und 5 stehen) - bei mp3 kann die Dateigröße auf 10% der ursprünglichen Zahlenflut reduziert werden bei angenehmen Ergebnis.

One Way Modell

Schließlich gibt es noch die Oneway-Kompression und hier werden sehr bekannte aber doch nicht im Zusammenhang mit Datenkompression bekannte Methoden gezeigt. Oneway ist der Kompressionstyp, den Laien und DAUs naiverweise wählen, die sich dabei sehr schlau vorkommen oder sich gerade in die Materie einarbeiten.

Wir kennen:

  • Addition - konstante Rate von 50%, also in einem Schritt aus 10MB nur 5MB erzeugen; kann wiederholt angewandt werden bis zur Größe von 1 Byte. Tolle Sache, so passen auf eine 3,5" Diskette 1,44 Millionen Musikstücke drauf.
  • format c - fantastische Rate von 99% beim ersten Mal. Kann beliebig oft wiederholt werden, jedoch ist die Rate konstant 99%. Die Rekonstruktion ist nur mit Spezialprogrammen möglich und dauert mitunter Tage. Außerdem werden keinen neuen Dateien erstellt, die man per eMail versenden könnte.

Fazit

Die moderne Datenkompression steckt noch in den Kinderschuhen. Warum auch größere Schuhe kaufen, wenn die Daten sowieso reduziert werden? Besonders verlustlos unkomprimierbar sind bereits komprimierte Daten. Die klügsten Mathematiker bekommen die Daten nicht kleiner. Gerade hier sollte man ansetzen und Chaos-Komprimierer entwickeln, die das Chaos in eine komprimierbare Ordnung zurückführen. Hm... vielleicht sollte ich mir diese Idee patentieren lassen?!

Siehe auch.png Siehe unbedingt:  Digitalisierung
Siehe auch.png Nicht zu verwechseln mit:  Presse

wiki:Datenkompression wiki-en:Data compression