Einleitung
kap1: wahrnehmung
kap2: das digitale bild
kap3: die digitale aufnahme
kap4: das jpeg-verfahren
kap5: farbraumveränderung
kap6: dct
kap7: quantisierung
kap8: codierung
kap9: de-codierung
kap10: dateitypen
kap11: jpeg2000
resümee
quellen
autoren


< Kapitel 2     Kapitel 4 >

3   Exkurs: Die digitale Aufnahme


Nachdem wir uns nun die Grundlagen der menschlichen Wahrnehmung und der digitalen Bilder erschlossen haben, ist es sinnvoll, vor dem Einstieg ins eigentliche Thema einen kurzen Exkurs zu machen und sich anzusehen, wie Bilder überhaupt technisch in diskretierte Pixelbilder, in Pixelmatrizen, "verwandelt" werden.


3.1    Der Scanner

Der Scanner ist das verbreiteste Gerät, mit dem Bilder digitalisiert werden. Der typische Graustufenscanner verarbeitet eine normale Bildvorlage und gibt digitale Bilddaten aus, indem die Bildvorlage beleuchtet wird, welche daraufhin das einfallende Licht mehr oder weniger stark reflektiert (dunkle Stellen "schlucken" den Lichtstrahl, helle Stellen werfen ihn zurück). Das zurückkommende Licht wird dann über Stablinsen von lichtempfindlichen, elektronischen Bauteilen aufgenommen, sogenannten CCDs (Charge Coupled Devices), die entsprechend der Lichtintensität der Reflexion einen Wert an den PC übermitteln, welcher daraus dann die Helligkeit des Bildpunktes bestimmt. Hintergrund-Information zu CCD-Sensoren und zur Signalübersetzung

Herkömmliche Farbscanner funktionieren nach dem gleichen Prinzip wie die Graustufenscanner, hier gibt es nur einige Weiterentwicklungen:

1.       Es können Farbfilter eingesetzt werden. Die Vorlage wird also in drei Scandurchgängen mit weißem Licht beleuchtet, wobei in jedem Durchgang den CCDs ein anderer Farbfilter (Rot, Grün und Blau, mit denen sich jede Farbe darstellen lässt, siehe Kapitel 1.3) vorgesetzt wird. Allerdings ist dieses Verfahren technisch aufwendig, unpräzise und obendrein langsam, daher findet es wenig Anwendung.

2.       Es können drei farbige Fluoreszenz-Lampen eingesetzt werden, welche nur den entsprechenden Farbanteil der Vorlage reflektieren. Hierbei ist nur ein Scandurchgang erforderlich.

3.       Es kann ein Prisma eingesetzt werden. Der Scanner beleuchtet die Vorlage mit einer weißen Lampe, deren Licht reflektiert und anschließend durch ein Prisma geleitet wird. Dieses zerlegt den Lichtstrahl in seine Rot-, Grün- und Blau-Komponenten. Um diese nun zu messen, müssen drei verschiedene Reihen mit CCDs im Scanner installiert werden. Bei diesem Verfahren erhält man gute Ergebnisse, da wenige Farbverfälschungen (im Gegensatz zum Filter-Verfahren) auftreten können und auch nur ein Scandurchgang gebraucht wird, um die Vorlage zu erfassen.




Aufbau eines herkömmlichen Scanners (Bild: http://www.geocities.com/ally77jp/).


3.2    Die Digitalkamera

Bei digitalen Fotoapparaten, die wesentlich neuer sind als die Scannertechnologie, werden farbige Pixel erzeugt, indem lichtempfindliche Zellen durch drei Farbfilter belichtet werden, ähnlich dem Scanner-Filter-Verfahren. Anschließend misst ein CCD-Sensor (wie gesagt: Charge Coupled Device) die Helligkeit, ordnet sie dem jeweiligen Bildpunkt zu und gibt einen Wert an den PC weiter.

Wie bereits in Kapitel 2.2 erläutert, können mit einer Darstellung von 8 Bit (also 8 Stellen, die die Werte 0 oder 1 annehmen können) 256 verschiedene Abstufungen unterschieden werden. Aus Kapitel 1.1 wissen wir auch, dass das bereits mehr Helligkeitswerte sind, als der Mensch erkennen kann.

Warum nun trotzdem viele Bilder von Kameras nicht nur in 256, sondern auch in 1024 und 2048 Farbtönen (also 10- und 12 Bit-Farbtiefe) ausgegeben werden, hat einen simplen Grund: Der Mensch nimmt Helligkeitsunterschiede in den hellen Bildbereichen deutlicher wahr als in den dunklen (man nennt dieses eine "logarithmische Helligkeitsempfindung"), im Gegensatz zum elektronischen CCD-Chip, der nur die genaue Menge an Licht misst, die auf die Pixel trifft. Damit die digital erfassten Bilder für den Menschen aussehen wie das originale Motiv, wandeln einige Kameras die Spannungswerte nicht in 256 sondern in 1024 oder 4096 Stufen um, was sich meist besonders bei der Detailwiedergabe in den dunklen Bildbereichen bemerkbar macht.


Die digitale Farbfotografie funktioniert ebenso (hier von "funktioniert analog" zu sprechen, wäre denkbar unpassend): Für jeden der Farbkanäle Rot, Grün und Blau werden die Spannungswerte gewandelt und ergeben im Gesamtbild die entsprechenden Farbwerte. Wird in jedem Kanal mit 256 Abstufungen aufgenommen, erhalten wir die 16,7 Millionen rechnerischen Farbwerte, über die viele Bilder verfügen, die allerdings weder am Monitor noch im Druck dargestellt werden können (siehe Kapitel 1.1 und nachfolgender Abschnitt 3.3).


3.3    Auflösungen und Druckverfahren

Damit man Pixelbilder nicht als Pixelmatrizen erkennt, sondern ein Foto sieht, müssen die einzelnen Bildpunkte entsprechend klein sein. Ebenso muss ein Bild über eine große Menge Pixel verfügen, wenn es eine bestimmte Größe haben soll. Liegen zwei Bildpunkte weniger als knapp 1/15 mm auseinander und befinden wir uns in 25 cm Entfernung, so können wir diese Punkte nicht mehr als getrennte Punkte erkennen. Entsprechend dürfen die Pixel bei einem Betrachtungsabstand von 1 Meter höchstens 1/3 mm voneinander entfernt sein.

Man kann also sagen: Steht man 25 cm vor einem Bild, reichen etwa 12 Pixel auf einem mm aus, damit man das Bild wie ein Foto wahrnimmt. 12 Pixel pro mm sind 304,8 Pixel pro Inch. Bildpunkte pro Inch ist nämlich die gängige Einheit beim Maß von Auflösungen. In diesem Fall (12 Pixel/mm = 304,8 Pixel/Inch) kann man sagen: Eine Auflösung von etwa 300 dpi ( dpi = Dots pro Inch = Bildpunkte pro Inch) genügt, damit wir die einzelnen Bildpunkte nicht mehr erkennen. Bei einem Abstand von 1 m reichen etwa 80 dpi aus.

Hier muss natürlich angemerkt werden, dass das Verfahren, mit dem das Bild ausgegeben wird, eine entscheidende Rolle spielt, da je nach Ausgabeverfahren die Betrachtungsentfernung anders ist - manche Methoden sind feiner, manche gröber. Hintergrund-Information zu Druckverfahren und Betrachtungsentfernungen


< Kapitel 2     Kapitel 4 >

Die JPEG-Kompression, Kapitel 3 Sebastian Wickenburg, Aeneas Rooch, Johannes Groß 2002