Bildkompression
aus Wikipedia, der freien Enzyklopädie
Bildkompression beruht, wie jede Datenkompression, darauf, aus dem ursprünglichen Datensatz Daten zu entfernen, die entweder vollständig rekonstruierbar sind oder deren Verlust kaum wahrnehmbar ist. Es gibt sehr viele Formate für Bilddateien, von denen aber die meisten veraltet sind und viele keine Kompression beinhalten, da sie Austauschformate für Grafikprogramme sind.
Inhaltsverzeichnis |
[Bearbeiten] Verlustfreie Kompression
Bei der verlustfreien Kompression geht keine Information verloren. Die Daten werden nur anders als vorher organisiert, indem die Wiederholung von Strukturen erkannt wird und diese "hierarchisch" dargestellt werden. Eine sich wiederholende Bitfolge wird etwa einmal in einem Wörterbuch abgelegt und dann nur noch durch ihre Nummer repräsentiert. Bekannte Verfahren sind die Lauflängenkodierung, LZW oder die Huffman-Codierung.
Das Vorgehen ist das Gleiche wie bei der Textkompression, die immer verlustfrei ist. So kann man eine TIFF-Datei einfach per ZIP-Algorithmus komprimieren. Ähnlich läuft es bei dem bekannten GIF-Format, das zunehmend von PNG verdrängt wird. PNG, durch das Verfahren LZ77 komprimiert ermöglicht eine großen Kompressionsfaktor durch die prädiktive Kodierung. Hierbei werden aus Erfahrungswerten Farb- und Helligkeitsverläufe vorhergesagt und nur die Abweichungen der Vorhersage von den wirklichen Bildinformationen gespeichert. Diese sind meist kleiner und benötigen weniger Speicherbedarf.
Ein guter Kompressionsfaktor lässt sich mit diesen Verfahren aber nur erzielen, wenn die Bilder günstig für diesen Kompressionsalgorithmus sind. Das bedeutet, sie sollten möglichst langsame Übergänge zwischen Bereichen unterschiedlicher Farben und Helligkeiten, sprich: möglichst wenig Bildschärfe haben. Auch JPEG2000 erlaubt verlustfreie Komprimierung, sogar von komplexeren Bildern mit noch recht guter Kompressionsrate.
[Bearbeiten] Verlustbehaftete Kompression
[Bearbeiten] JPEG
Hier besteht die Kunst darin, den Informationsverlust unmerklich oder wenigstens ästhetisch erträglich zu halten. Das klassische Verfahren ist JPEG. Die Methode nutzt wie die verlustbehaftete Audio-Kompression aus, dass kleine Änderungen im Farb- bzw. Helligkeitsverlauf für das Auge nicht unterscheidbar sind. Das heißt, hier wie dort steckt eine physiologische Theorie der Wahrnehmung hinter der Kompression. Das Auge und die Bildverarbeitung im Gehirn haben nur eine bestimmte Aufnahmefähigkeit. Die Bildkompression passt den Informationsgehalt des Bilddatensatzes möglichst gut an diese Aufnahmefähigkeit an.
In der Praxis sieht das so aus, dass das Bild mit Hilfe eines Systems von Basisfunktionen transformiert wird. Bei JPEG ist das die Diskrete Kosinustransformation (engl. Abkürzung: DCT), bei JPEG 2000 die Wavelet-Transformation. Auf diese Weise erhält man ein zweites "Bild", das aus den Koeffizienten zu diesen Basisfunktionen besteht. Bei JPEG sind das die Amplituden der so genannten Ortsfrequenzen, bei JPEG 2000 eine Art von Mittelwerten über 4, 16, 64 ... Pixel. Es ist nun möglich, diese Koeffizienten stark "einzudampfen" durch einen Prozess, der Quantisierung genannt wird, ohne dass sich das Erscheinungsbild stark ändert. Die Quantisierung ist im wesentlichen eine Rundung. Kleine Koeffizienten verschwinden ganz und die größeren werden auf den nächstbesten runden Wert gesetzt. So lassen sie sich mit wesentlich weniger Bits darstellen. Schließlich wird noch eine verlustlose Datenkompression durchgeführt, die die nun leidlich zurechtsortierten Koeffizienten effizienter komprimieren kann als die ursprünglichen Bilddaten.
Das neuere JPEG 2000 konnte sich allerdings bisher nicht durchsetzen, da die nötigen Algorithmen etwa für Digitalkameras oder Handhelds zu rechenaufwändig sind und rechtliche Unklarheiten bezüglich der Lizenzierung bestehen. [1]
Ein Problem der verlustbehafteten Kompression bei JPEG ist der sogenannte „Klötzcheneffekt“ (JPEG-Artefakte), welcher bei übermäßiger Komprimierung auftaucht.
[Bearbeiten] Selbstähnlichkeit
Eine weitere Methode, der aber momentan kein gängiges Dateiformat entspricht, basiert auf einer Erkenntnis der Chaostheorie, dass fast jedes Bild Selbstähnlichkeit aufweist. Hierbei werden zu Gruppen von Bildpunkten einer gewissen Größenordnung (z. B. 8×8 Punkte) ähnliche Gruppen der nächstkleineren Größenordnung (4×4 Punkte) im selben Bild gesucht. Gespeichert werden dann statt der tatsächlichen Gruppen nur die Position der ähnlichen Referenzgruppen, welche weniger Bilddaten aufweisen. Dieses Verfahren entspricht im wesentlichen einem Codebook-Verfahren, mit dem Unterschied, dass das Codebook nicht separat gespeichert werden muss, sondern im selben Bild vorhanden ist. Da die Suche nach ähnlichen Gruppen gebenebenfalls recht aufwändig sein kann, werden hierbei neuronale Netze eingesetzt. Die Decodierung ist jedoch nicht aufwändiger als bei herkömmlichen Verfahren.
[Bearbeiten] Siehe auch
[Bearbeiten] Weblinks
- JPEG Homepage
- PNG Bibliothek
- Online Gif Imageeditor
- GIF Homepage
- Art Vorlesungsskript über Grafikeditoren
- Reversible Compression Skript über Kompressionsmethoden
- Compression FAQ Abhandlung von Fragen zur Datenkompression
- Verlustlose Bildkompression Übersichtsartikel zur verlustlosen Bildkompression
- Online Image Komprimierung