Datenkompression: Unterschied zwischen den Versionen
Dufo (Diskussion | Beiträge) K (interwiki) |
WiKa (Diskussion | Beiträge) (Links und Kleinchrom) |
||
Zeile 1: | Zeile 1: | ||
− | Die '''Datenkompression''' ist ein Vorgang, bei dem | + | __NOTOC__ |
− | + | Die '''Datenkompression''' ist ein Vorgang, bei dem [[Information]]en über Kamele untersucht, zerlegt, die Zerlegung analysiert, umformuliert, neu kodiert und in kürzerer [[Fassung]] wieder zusammengerottet werden. Eingeweihte unterscheiden zwischen ''verlustloser'' und ''verlustbehafteter'' Kompression. | |
− | Eingeweihte unterscheiden zwischen ''verlustloser'' und ''verlustbehafteter'' Kompression. | ||
==Die verlustlose Datenkompression== | ==Die verlustlose Datenkompression== | ||
+ | {|width="100%" style="vertical-align:top" | ||
+ | |width="50%" style="vertical-align:top; "| | ||
Sie ermöglicht es dem Empfänger des zusammengeprügelten Kamels mit Geschickt das Ding wieder schnell und schmerzfrei zu entfalten, damit es danach wie zuvor ist. Diese Kompressionsart ist nicht so effektiv und langsamer und das Ergebnis ist schwerer zu erreichen als die folgende Art. | Sie ermöglicht es dem Empfänger des zusammengeprügelten Kamels mit Geschickt das Ding wieder schnell und schmerzfrei zu entfalten, damit es danach wie zuvor ist. Diese Kompressionsart ist nicht so effektiv und langsamer und das Ergebnis ist schwerer zu erreichen als die folgende Art. | ||
− | + | |width="50%" style="vertical-align:top; "| | |
− | Bekannte Algorithmen/Methoden: | + | '''Bekannte Algorithmen/Methoden:''' |
*Zip | *Zip | ||
*7zip | *7zip | ||
Zeile 13: | Zeile 14: | ||
*rle | *rle | ||
*defrag | *defrag | ||
− | + | |} | |
==Die verlustbehaftete Kompression== | ==Die verlustbehaftete Kompression== | ||
===Normal Modell=== | ===Normal Modell=== | ||
Zeile 27: | Zeile 28: | ||
Wir kennen: | Wir kennen: | ||
− | *Addition - konstante Rate von 50%, also in einem Schritt aus 10MB nur 5MB erzeugen; kann wiederholt angewandt werden bis zur Größe von 1 Byte. Tolle Sache, so passen auf eine 3,5" Diskette 1,44 Millionen Musikstücke drauf. | + | *Addition - [[konstante]] Rate von 50%, also in einem Schritt aus 10MB nur 5MB erzeugen; kann wiederholt angewandt werden bis zur Größe von 1 Byte. Tolle Sache, so passen auf eine 3,5" Diskette 1,44 Millionen Musikstücke drauf. |
− | *format c - fantastische Rate von 99% beim ersten Mal. Kann beliebig oft wiederholt werden, jedoch ist die Rate konstant 99%. Die Rekonstruktion ist nur mit Spezialprogrammen möglich und dauert mitunter | + | *format c - fantastische Rate von 99% beim ersten Mal. Kann beliebig oft wiederholt werden, jedoch ist die Rate konstant 99%. Die Rekonstruktion ist nur mit Spezialprogrammen möglich und dauert mitunter [[Tag]]e. Außerdem werden keinen neuen Dateien erstellt, die man per eMail versenden könnte. |
− | ==Fazit== | + | ==[[Fazit]]== |
− | Die | + | Die [[modern]]e Datenkompression steckt noch in den Kinderschuhen. Warum auch größere Schuhe kaufen, wenn die Daten sowieso reduziert werden? Besonders [[verlust]][[los]] unkomprimierbar sind bereits komprimierte Daten. Die klügsten [[Mathematik]]er bekommen die Daten nicht kleiner. Gerade hier sollte man ansetzen und Chaos-Komprimierer entwickeln, die das Chaos in eine komprimierbare [[Ordnung]] zurückführen. Hm... vielleicht sollte ich mir diese Idee patentieren lassen?! |
{{su}} [[Digitalisierung]]<br /> | {{su}} [[Digitalisierung]]<br /> |
Version vom 20. Januar 2010, 20:05 Uhr
Die Datenkompression ist ein Vorgang, bei dem Informationen über Kamele untersucht, zerlegt, die Zerlegung analysiert, umformuliert, neu kodiert und in kürzerer Fassung wieder zusammengerottet werden. Eingeweihte unterscheiden zwischen verlustloser und verlustbehafteter Kompression.
Die verlustlose Datenkompression
Sie ermöglicht es dem Empfänger des zusammengeprügelten Kamels mit Geschickt das Ding wieder schnell und schmerzfrei zu entfalten, damit es danach wie zuvor ist. Diese Kompressionsart ist nicht so effektiv und langsamer und das Ergebnis ist schwerer zu erreichen als die folgende Art. |
Bekannte Algorithmen/Methoden:
|
Die verlustbehaftete Kompression
Normal Modell
Diese Behandlung von Daten ist wesentlich leichter zu erreichen, da auf das Ergebnis kaum Rücksicht genommen werden muss. Beim Zusammenprügeln eines Kamels kann also ruhig ein Höcker abbrechen, wenn das Ergebnis in einer anderen Perspektive betrachtet wird, fällt das garnicht auf.
Bekannte Algorithmen/Methoden:
- jpeg - Bilddaten werden farblich zusammengefaßt. So kann man bei einfachen Fotos aus 2MB dann 60kB machen.
- mp# (wobei # für Zahlen zwischen 2 und 5 stehen) - bei mp3 kann die Dateigröße auf 10% der ursprünglichen Zahlenflut reduziert werden bei angenehmen Ergebnis.
One Way Modell
Schließlich gibt es noch die Oneway-Kompression und hier werden sehr bekannte aber doch nicht im Zusammenhang mit Datenkompression bekannte Methoden gezeigt. Oneway ist der Kompressionstyp, den Laien und DAUs naiverweise wählen, die sich dabei sehr schlau vorkommen oder sich gerade in die Materie einarbeiten.
Wir kennen:
- Addition - konstante Rate von 50%, also in einem Schritt aus 10MB nur 5MB erzeugen; kann wiederholt angewandt werden bis zur Größe von 1 Byte. Tolle Sache, so passen auf eine 3,5" Diskette 1,44 Millionen Musikstücke drauf.
- format c - fantastische Rate von 99% beim ersten Mal. Kann beliebig oft wiederholt werden, jedoch ist die Rate konstant 99%. Die Rekonstruktion ist nur mit Spezialprogrammen möglich und dauert mitunter Tage. Außerdem werden keinen neuen Dateien erstellt, die man per eMail versenden könnte.
Fazit
Die moderne Datenkompression steckt noch in den Kinderschuhen. Warum auch größere Schuhe kaufen, wenn die Daten sowieso reduziert werden? Besonders verlustlos unkomprimierbar sind bereits komprimierte Daten. Die klügsten Mathematiker bekommen die Daten nicht kleiner. Gerade hier sollte man ansetzen und Chaos-Komprimierer entwickeln, die das Chaos in eine komprimierbare Ordnung zurückführen. Hm... vielleicht sollte ich mir diese Idee patentieren lassen?!
Siehe unbedingt: Digitalisierung
Nicht zu verwechseln mit: Presse