Einleitung
kap1: wahrnehmung
kap2: das digitale bild
kap3: die digitale aufnahme
kap4: das jpeg-verfahren
kap5: farbraumveränderung
kap6: dct
kap7: quantisierung
kap8: codierung
kap9: de-codierung
kap10: dateitypen
kap11: jpeg2000
resümee
quellen
autoren


< Einleitung     Kapitel 2 >

1   Grundlagen I: Die menschliche Wahrnehmung


Diese Arbeit beschäftigt sich damit, wie digitalisierte Bilder so bearbeitet werden können, dass sie weniger Speicherplatz in Anspruch nehmen, trotzdem aber möglichst wenig von ihrer Qualität einbüßen müssen. Es ist naheliegend, sich ganz zu Anfang einen Überblick zu verschaffen, wie wir überhaupt "sehen".


1.1    Anatomie und Physiologie

Die Bilderzeugung im Auge funktioniert wie in einer mechanischen Kamera: Wir "sehen", indem Lichtstrahlen durch die Pupille und die Linse ins Auge fallen. An der Linse (und auch an der Hornhaut, die zu vernachlässigen ist) werden die Lichtstrahlen gebrochen; sie bündelt diese und sorgt für ein klares Abbild der Umgebung auf der Netzhaut, die sich an der Rückwand des Auges befindet. Feine Muskelfasern zwischen Linse und der festen, äußeren Haut des Augapfels können die Dicke der Linse durch Streckung verändern, sodass sowohl von nahegelegenen als auch von weiter entfernten Gegenständen ein scharfes Bild auf der Netzhaut entsteht. Die Netzhaut ist eine Schicht aus feinen lichtempfindlichen Rezeptoren und dünnen Nervenzellen, die in verschiedene Gruppen geteilt sind:

-          Mit den Stäbchen können wir Lichtintensität unterscheiden, jedoch keine Farben. Mit ihnen sehen wir in der Dämmerung (deshalb auch das Sprichwort, nachts seien alle Katzen grau).

-          Mit den Zäpfchen sehen wir nur, wenn es hell ist, mit ihnen können wir Farben wahrnehmen. Es wird angenommen, dass es drei Sorten von Zäpfchen gibt, die eine charakteristische Empfindlichkeit auf das Farbspektrum aufweisen, wie in der unten stehenden Grafik verdeutlicht.

Stäbchen und Zäpfchen leiten den Lichteindruck ins Gehirn weiter, wo bestimmte Teile des Gehirns die Signale empfangen und verarbeiten. Nun erst sehen wir.




Anatomie des menschlichen Auges: 1=Linse / 2=Hornhaut / 3=Iris,Regenbogenhaut /
4=Pupille / 5=Gelber Fleck / 6=Blinder Fleck (Bild: NightSky).

Die Zäpfchen finden sich am engsten "zusammengepackt" im Zentrum der Netzhaut, das man "gelber Fleck" nennt; an dieser Stelle ist die Netzhaut am empfindlichsten und die Auflösung, mit der wir sehen, am größten. Je weiter wir uns vom gelben Fleck entfernen, desto weniger Zäpfchen finden wir vor und desto mehr wird ergo mit den Stäbchen gesehen. Dort, wo der Sehnerv das Auge verlässt, sitzen logischerweise gar keine Sehzellen, man spricht hier vom blinden Fleck.




Nachdem Licht durch Hornhaut und Linse gefallen, sowie dort gebrochen und gebündelt worden ist, reagieren Nervenzellen an der Netzhaut auf die Lichtsignale und leiten sie weiter zum Gehirn (Bild: Chibret Augenatlas, 1998).

Bedingt durch die "Bauteile" des menschlichen Auges sind unserer Wahrnehmung Grenzen gesetzt. Wir vergleichen einmal die wichtigsten Daten (ausführliche Hintergrund-Information zum menschlichen Auge in Zahlen haben wir hier für zusammengestellt):

-          Auflösung: Insgesamt 6 Millionen Zapfenzellen und 130 Millionen Stabzellen befinden sich auf der menschlichen Netzhaut (die größte Dichte der Zäpfchen ist wie gesagt am gelben Fleck, wo sich knapp 160.000 Zapfenzellen pro Quadratmillimeter befinden). Eine ganz alltägliche CCD-Kamera kann da nicht mithalten: Ihr Sensor-Array verfügt meist nur über 756x581, also etwa 440.000 Bildpunkte.

-         Farben: Wie wir auch noch ausführlich darstellen werden, können digitale Bilder bis zu 256 Graustufen und Farbbilder bis zu etwa 16,7 Millionen verschiedene Farbtöne aufweisen, was ein bisschen Verschwendung ist, da unser Auge nur etwas weniger als 100 Grautöne und etwa 7 Millionen Farben unterscheiden kann.


1.2    Wahrnehmungspsychologie

Wie gerade eben beschrieben, nehmen wir Farben über die Rezeptoren für farbiges Licht (rot, grün, blau) in der Netzhaut auf. Da die Empfindlichkeit dieser Rezeptoren für andere Farben genetisch kodiert ist, unterscheidet sie sich bei allen Menschen. Jeder Mensch hat demnach ein anderes Farbempfinden.

Die Auswirkungen menschlicher Reaktionen auf das Erscheinen einer bestimmten Farbe sind verallgemeinerbar (obgleich der biologische Hintergrund immer noch nicht hinreichend geklärt ist): Farben, die man z.B. mit Geschwindigkeit und Schnelligkeit verbindet und die man als anregend und lebhaft empfindet, sind warm und kräftig (zum Beispiel: Rot, Gelb, Orange). Kalte Farben (wie Blau und Grün) wirken hingegen beruhigend oder entspannend. Auch die Intensität der Farben spielt eine Rolle: Sanfte Farben mit wenig Intensität vermitteln Geborgenheit und Bequemlichkeit, starke Farben mit hoher Intensität wirken aggressiver.




Farben wie Gelb und Orange werden als warm und lebendig empfunden -
wie bei "Mädchen mit blauen Vögeln" (August Macke) und "Die Wahrsagerin" (Michelangelo Caravaggio)
(Bilder: http://reisserbilder.at).




Marc Chagalls "Blumenstilleben" und Claude Monets "Impression (Bütten)" zeigen:
Farben wie Blau und Grün wirken beruhigend und kühl
(Bilder: http://reisserbilder.at).




Kräftige Farben mit hoher Intensität wirken aggressiv -
so z.B. bei Hieronymus Boschs "Chor der Rachegeister" und Wassily Kandinskys "Orientalisches"
(Bilder: http://reisserbilder.at).

Es spielt auch eine Rolle, in welcher Umgebung eine bestimmte Farbe gesehen wird. Je nach den Farbtönen, die eine bestimmte Farbe einfassen, wird diese Farbe in unterschiedlichen Tönungen wahrgenommen. Darüber hinaus ist sicherlich jedem bekannt, dass nicht nur Farben, sondern auch Größe und Verhältnisse unterschiedlich wahrgenommen werden, abhängig von ihrer Umgebung. Dies sei hier nicht weiter vertieft.


1.3    Farben

Bevor wir uns den Grundlagen der Bilddigitalisierung widmen und dem eigentlichen Thema der Bildkompression nähern, betrachten wir zunächst einmal, was Farben überhaupt sind und wie der Mensch sie (z.B. bei der digitalen Bildverarbeitung) darstellen kann.

Das für den Menschen sichtbare Licht nimmt nur einen ganz kleinen Teil des Wellenspektrums ein. Je nach Länge der Wellen in diesem Spektrum erscheint ein Lichtstrahl in einer bestimmten Farbe: Ein Lichtstrahl mit einer Wellenlänge von 700nm erscheint zum Beispiel rot, ein Lichtstrahl mit einer Wellenlänge von ca. 500nm erscheint blau. Wenn ein weißer Lichtstrahl (ein Gemisch aller Wellenlängen, wie nachher ausführlich gezeigt wird) auf eine Fläche trifft, die alle Wellenlängen außer Rot absorbiert, dann erscheint diese Fläche rot.

Wenn wir nun einen bestimmten Farbton mathematisch beschreiben wollen, gibt es mehrere Möglichkeiten, da Farben über verschiedene Schemata definiert werden können (vergleichbar ist dieses mit verschiedenen Zahlenmengen, die es gibt: Eine bestimmte ganze Zahl kann als Dezimalzahl, Bruch und Wurzel geschrieben werden, es handelt sich aber stets um die gleiche Zahl).

Das RGB-Modell, das man auch additive Farbmischung nennt, baut auf den drei Grundfarben Rot, Grün und Blau auf, aus denen sich jede andere Farbe mischen lässt. Werden alle drei Farben zu gleichen Teilen (also mit gleicher Intensität) gemischt, erhalten wir weißes Licht. Auch das Sonnenlicht enthält diese drei Grundfarben. Da die meisten Bildsysteme mit diesem Schema arbeiten, haben wir ein Feature eingerichtet, mit dem das RGB-Modell veranschaulicht wird: Das lustige Java-Script.

Die subtraktive Farbmischung oder auch CMYK bedient sich der Farben Cyan, Magenta und Gelb. Eine Mischung dieser drei Komponenten ergibt in der Theorie Schwarz, in der Praxis allerdings nur ein sehr dunkles Braun. Durch Zugabe von Schwarz (auch Tiefe genannt) enthält man auch im Bereich der sogenannten unbunten Farben (Grau, Schwarz, Weiß) eine gute Reproduktionsqualität.

Das HSB-Modell entspricht unserer verbalen Farbbeschreibung am meisten: Während es enorm schwierig ist, ein "blasses Lila" in RGB oder CMYK zu beschreiben (die mathematische Darstellung eines solchen Farbtones in verschiedenen Formaten ist unten zu finden), lässt sich eine solche Farbbeschreibung in HSB recht schnell umsetzen. Das System beinhaltet nämlich die Komponenten Farbton (Hue), Sättigung (Saturation) und Helligkeit (Brightness). Die Farbton-Komponente gibt die reine Farbinformation an, die Skala reicht hier bis 360 Grad. Die Sättigung gibt das Verhältnis zwischen der reinen Farbstärke und den unbunten Anteilen an (0% ist also immer ein Grauwert und 100 % die kräftigste, reine Farbe). Die Helligkeit entspricht der Helligkeit von 1% bis 100%. Dabei stellt 0% immer Schwarz dar, 100% immer Weiß.
An späterer Stelle werden wir das YUV-Modell erwähnen, welches im Prinzip das gleiche wie das HSB-Modell ist, nur sind die Komponenten anders angeordnet und anders benannt: Y=Luminanz (Helligkeit), U=Farbton, C=Chrominanz (Farbsättigung).




Der gleiche Farbton - über 3 veschiedene Skalen beschrieben


< Einleitung     Kapitel 2 >

Die JPEG-Kompression, Kapitel 1 Sebastian Wickenburg, Aeneas Rooch, Johannes Groß 2002