WP's SloMo


English

CCD und CMOS Sensor Info

Sensortechnik - Licht und Schatten

Plancksches Strahlungsgesetz
Spektrale Wahrnehmung von Sonnenlicht und Glühlampen

Die Großzahl der digitalen Kameras mit Halbleiterbildsensor (im Englischen solid state cameras, im Gegensatz zu auf Röhren oder Film basierten Systemen) sind Ein-Chip-Kameras. Daraus erklärt sich die geringere Lichtempfindlichkeit der Farbkameras. Denn gegenüber der jeweiligen nackten Schwarz/Weiß (besser: monochrom) Version ist die Oberfläche des entsprechenden Farbsensors mit einer Rot-Grün-Blau (kurz: RGB) Farbbeschichtung versehen. Und die schluckt etwa 50% der Lichtintensität.

Oft geht sogar noch viel mehr verloren, da zur Farbtrennung und für einen genügend großen Aussteuerungsbereich (Dynamik) der Nah-Infrarotanteil (engl.: NIR, near IR) des Spektrums durch einen zusätzlichen IR-Sperrfilter (engl.: IR-cut, IR-stop) bis ca. 1,1 Mikrometer Wellenlänge unterdrückt werden muss. Die Farbmaskierung ist nämlich für langwelliges Licht durchlässig und gerade in diesem Spektralbereich sind die Sensoren ziemlich wirkungsvoll. Filterlose Schwarz/Weiß CCD Kameras könnte man praktisch als behelfsmäßige Nachtsichtgeräte einsetzen.

Im Museum oder einer Ausstellung fand ich vor einiger Zeit wohl einmal diese knackige Gegenüberstellung der unterschiedlichen Anzahl von Helligkeitsabstufungen (Dynamik) verschiedener Aufnahmesysteme:

Digitalkamera 1 Tsd., Standard Dia-Farbfilm aus den 1980ern 1 Mio., menschliches Auge 1 Mrd.

 

Δ

Pixel und Farben

Auflösung - Schwarz/Weiß kontra Farbkameras

Filterlinien
RGB Streifenfilter

 

Bayer Filter
Bayer Mosaikfilter

Da die Farb-Befilterung eines Sensors im Streifen- oder Mosaikmuster aufgebracht ist, ergibt sich dadurch noch ein weiterer Nachteil: Bei einem Schwarz/Weiß Sensor kann jede lichtempfindliche Zelle direkt zur Auflösung beitragen. Jeder einzelne der Zellen kann einen Farbton mit seinem Grauwert zwischen schwarz und weiß abdecken, also jede Zelle ist ein Pixel (= picture element; dt.: Bildelement). Ein Farbsensor mit der gleichen Zellenzahl benötigt jeweils eine rot, eine grün und eine blau maskierte Zelle zur Darstellung der Farbtöne. Jedes Pixel setzt sich also aus einem RGB-Subpixeltripel aus drei Zellen zusammen. Rein rechnerisch ist die Auflösung bezogen auf die Zellenzahl dann nur noch ein Drittel. Dieser Sachverhalt wird bei der Angabe der Auflösung gerne unterschlagen und die Zellenzahl mit der Pixelzahl gleichgesetzt. Mittels aufwändiger Algorithmen kann aber der Auflösungsverlust durch die Farbmaskierung schon in Echtzeit aufgefangen werden. Jedoch erreicht man kaum mehr als 2/3 der Auflösung des entsprechenden Schwarz/Weiß Sensors.

Die Bilder links zeigen Ausschnitte aus Farbfiltern. Jede Zelle entspricht einem (Sub-) Pixel. Die doppelt so häufigen grünen Zellen dienen zur Erzielung einer höheren Auflösung entsprechend dem menschlichem Wahrnehmungsvermögen (Mitte des Spektrums; Empfindlichkeit). Die Elektronik für die Ansteuerung und Adressierung wird meist in den schwarzen, hier nur dünn dargestellten Pixel-Rahmen positioniert. Je nach Typ des Sensors kann so ein blinder optisch passiver Bereich dann größenmäßig der Fläche des jeweiligen echten optisch aktiven Pixels entsprechen oder diese sogar noch übertreffen. Nebenbei: dieses Verhältnis aktive zu passiver Sensorfläche wird als Füllfaktor bezeichnet.
Mosaikfilter bieten generell eine höhere Auflösung als Streifenfilter, die Farbinterpolation ist jedoch komplizierter.

Die Pixelanzahl ist also nicht alles - viele Pixel machen noch keine Qualität (soviel zur allgemeinen Pixelschlacht). Sie ist allenfalls so aussagekräftig wie der Prozessortakt als alleiniges Kriterium für die Leistungsfähigkeit eines Rechners. Es kommt auch auf Kontrast, Empfindlichkeit, Dynamik, Farbseparation und vieles andere mehr an. Und das Objektiv hat auch ein Wörtchen mitzureden. Ein Megapixel Monster mit flauen Bildern bläht nur den Speicherbedarf mit einer Unmenge, im Endeffekt nutzloser, Daten auf.
Abgesehen davon bedeuten mehr Pixel pro Fläche auch kleinere Zellen, und damit reduzierte Lichtempfindlichkeit bei höherer Rauschneigung. (Farbpixel und selbst Farbsäume und Pixel erscheinen in ansonsten schwarz/weißen Bildbereichen.)
In diesem Zusammenhang kann man auch einmal schauen was die Kamera- bzw. Sensorhersteller ihren Kunden an Fehlpixel zumuten. Normalerweise sieht man sie nicht, da sie einfach »übertüncht« (mappen, vom engl. Fachbegriff map, mapped) werden, indem man den interpolierten Wert von benachbarten Pixel heranzieht. Bei wahren Qualitätsherstellern muss man sie regelrecht suchen, während andere einem Sensoren mit haufenweise Fehlern aufs Auge drücken.

Es gibt unterschiedlichste Farbfiltermuster und -anordnungen, nicht nur Streifen- und Bayer-Muster. In der Regel werden sie fotolithografisch aufgebracht. Auch kann man andere Farbaufteilungen als RGB, z.B. Magenta statt Rot und Gelb statt Blau oder zwei verschiedene Grüntöne finden. Auch zusätzliche unbefilterte Pixel können in den Verbund integriert sein, usw.
In der Tat gewinnt jede elektronische Farbkamera ihre Bilder durch Interpolation, denn es gibt keinen bunten Strom. (Nicht einmal von Yello ;-). Da der Farbalgorithmus die entsprechende Filterfarbe über der jeweiligen Grauwert-Zelle kennt, kann er die Farbe an dieser Stelle errechnen. Üblicherweise werden mehrere benachbarte Zellen zur Berechnung herangezogen.

Nebenbei: Teure Drei-Chip-Kameras (auch ursprünglich 3 CCD genannt), die hauptsächlich in Standard-Videoanwendungen verwendet werden, weisen dagegen für jeden Farbkanal jeweils einen einheitlich rot, grün und blau maskierten Sensor auf. Die Strahlaufteilung erfolgt durch eine Prismengruppe.
Mittlerweile gibt es für Fotoapparate auch Sensoren (von Foveon) mit vertikalem statt lateralem Aufbau, d.h. zur Farbseparation nutzt man die wellenlängenabhängige Eindringtiefe des Lichts.
Ist die Anwendung nicht zeitkritisch, kann man auch Farbfilter oder Farbräder, wie man sie ähnlich von professionellen Scheinwerfern her kennt, verwenden. Manche Studio-Fotokameras machen so drei Aufnahmen unmittelbar nacheinander mit jeweils einem anderen Farbfilter vor dem Sensor oder Objektiv.

 

Filtereffekte - Moiré, aliasing und fix pattern noise

Die Streifen- oder Mosaikfilter sind auch für Farbartefakte an Kanten oder Gittern verantwortlich. Entspricht das Abbild einer Struktur auf dem Sensor etwa der Gittergröße seines Filters bzw. seiner Zellenstruktur kann es zu Moiré und Aliasing Effekten kommen. Das kann man schön an den Fehlfarben bei Aufnahmen von Jalousien oder Lüftergittern sehen. Einfach einmal mit der Kamera auf die Suche gehen. Auch vom Scannen von gerasterten Zeitungsbildern her ist der Effekt wohl bekannt. Es entstehen Farbsäume, selbst bei Schwarz/Weiß Originalen.
Hier steckt im Prinzip das Abtasttheorem dahinter. Man kann sich den Effekt der Unterabtastung leicht vor Augen führen, wenn man sich z.B. vorstellt einen weißen (oder grauen) Gartenzaun aufzunehmen. Denn dabei muss das Bild einer Latte mindestens eine Reihe roter, grüner und blauer Pixel abdecken, sonst kann der weiße Farbton nicht gemischt werden. Er entsteht nur bei gleichmäßiger Aussteuerung der Farbkanäle.
Selbst bei Monocolor-Kameras kann es wegen der festen Pixelanordnung zu vergleichbaren Fehlern kommen. Aufgrund der unterschiedlichen Teilüberdeckung/-abschattung der Pixel entstehen Schwebungen, Schattenbilder, sprich Strukturen, wo eigentlich keine sind - »aliasing« eben. (Auf den Effekt stößt man auch gerne beim Scannen von Zeitungs- und Zeitschriftenbildern. Auflösungs- und vergrößerungsabhängig zeigen sich plötzlich drastische Muster wegen des Rasterdrucks (d.h. Gitter) der Vorlage.)
Moiré entsteht, wenn zwei Gitter im Strahlengang gegeneinander verschoben, speziell, zueinander verdreht, sind. Dann kommt es zu breiten, großflächigen Schlieren, deren Anzahl und Richtung vom Verdrehwinkel der Gitter zueinander abhängt. Dagegen ist auch das menschliche Auge nicht gefeit: Legen sie doch einmal zwei feinmaschige Fliegengitter übereinander und verdrehen Sie sie langsam gegeneinander.

Da jeder Pixel einen anderen Dunkelstrom (d.h. im unbelichteten Zustand nicht unbedingt »0«) liefert, lässt man unterhalb eines bestimmten Schwellwerts alle betroffenen Pixel von der Kameraelektronik zwanghaft auf schwarz setzen. Ansonsten würde man verteilte bunte Pixel in einer dunklen Fläche finden. Das beschränkt die Dynamik und führt zum als »Absaufen im Schwarzen« bezeichneten Effekt - dunkle Flächen und Schattenpartien werden nicht durchgezeichnet, Unregelmäßigkeiten werden weg gebügelt. Anfangs litt ein Großteil der digitalen Fotoapparate an diesem typischen Manko. Aktuell sind besonders (billige) CMOS Kameras und speziell solche mit kleinen Pixelabmessungen davon betroffen.

Man hat bereits versucht Sensoren mit unregelmäßig bzw. zufällig verteilten Farbpixel, also keinem festen Schema bei der Anordnung der einzelnen RGB-Farfilter, einzusetzen.
Bei der eindringtiefenabhängigen Farbseparation wiederum wirken der winkelabhängige Weg und stochastische Effekte verfälschend. Selbst Drei-Chip-Kameras können bei nicht richtig justierten oder getrennten Flächen der Strahlteilerprismen oder bei intensivster Beleuchtung farbige Linien, Flecken oder Keile zeigen. Bei rotierenden Farbrädern kann es zu schwankender Helligkeit und Falschfarben kommen, wenn die Transmission nicht einheitlich ausfällt oder die Synchronizität nicht perfekt ist.

 

Spektrale Empfindlichkeit (oder Farbensehen)

Spektrale Empfindlichkeit: Aussteuerung als Funktion der Wellenlänge
Spektrale Empfindlichkeit, Vergleich
menschliches Auge, CCD und CMOS Sensoren

Spektraler Quantenwirkungsgrad
Farbseparation der Kanäle eines CMOS Sensors;
Notwendigkeit eines IR Dämpfungsfilters

Das für das menschliche Auge sichtbare Farbspektrum (VIS) reicht allenfalls von 380 Nanometer (violett) bis 780 Nanometer (dunkelrot). Mit der größten Empfindlichkeit im Grün-Gelben bei ca. 550 Nanometer. CCD und CMOS Sensoren besitzen ein breiteres Spektrum. Speziell sehen sie noch im nahen Infrarot jenseits von 780 Nanometer bis zur sogenannten Bandlücke des Grundmaterials Silizium bei etwa 1 100 Nanometer, mit der höchsten Empfindlichkeit zwischen 600 und 900 Nanometer. Ihr Empfindlichkeitsmaximum ist verglichen mit dem menschlichen Auge mehr zum Roten verschoben. (Übrigens: Für Wellenlängen jenseits der Bandlücke ist Silizium »durchsichtig«.)

Im Bild rechts oben ist die spektrale Sensitivitätskurve des menschlichen Auges im hell adaptierten Zustand im Vergleich zu der von unbeschichtetem, einkristallinem Silizium, dem Ausgangsmaterial von CCD und CMOS Sensoren, für den Bereich des sichtbaren Spektrums und des nahen Infrarots dargestellt. (Die Kurven sind auf ihren jeweiligen Spitzenwert normiert.)
Die Charakteristik von CCD Sensoren wird durch die Kurve für blankes Silizium recht gut wiedergegeben. CMOS Sensoren zeigen eine Verschiebung und Verbreiterung des Maximums hin zu kürzeren Wellenlängen, verursacht durch ihre flachere Struktur, die der geringeren Eindringtiefe kurzwelligen Lichts entgegen kommt.

Im Bild darunter ist die jeweilige spektrale Empfindlichkeit der drei RGB Farbkanäle eines entsprechend maskierten (= beschichtet mit Rot-Grün-Blau Filtern) CMOS Farbsensors dargestellt. Man sieht deutlich die Transparenz der Polymere im Roten und speziell im IR Bereich und damit verbunden die Notwendigkeit diesen Spektralbereich zu dämpfen bzw. zu blocken, um damit ein Übergewicht von Rot zu vermeiden, und um Rauschen, Fehlaussteuerung oder Übersteuerung zu reduzieren.

Im gewissen Umfang lässt sich die Rotempfindlichkeit bei Farbsensoren durch die Wahl der Transmissionscharakteristik der Farb-Befilterung und der rechnerischen Gewichtung der Farbkanäle manipulieren. Farbkonversionsfilter (Reduzierung der Rotempfindlichkeit; häufig bei Farb-Videokameras aus bläulichem Glas) helfen hier ebenfalls.
Im kurzwelligen Bereich des Spektrums (UV, blau) sind die Sensoren dagegen vergleichsweise unempfindlich. Hier wirken außerdem zusätzlich die Gläser transmissionsbegrenzend.

Die spektrale Empfindlichkeit einer Kameras ist allerdings nicht nur durch den Sensor oder den Film und die Filter limitiert, sondern auch durch die optische Abbildung, speziell die Objektive und die oben erwähnten IR-Sperrfilter. Denn die Ausnutzung eines zu großen spektralen Empfindlichkeitsbereichs kann zu matten oder unscharfen Bildern führen. Da die Brennweite wellenlängenabhängig ist, entstehen die einzelnen Farbbilder in unterschiedlicher Entfernung vom Objektiv und damit vom Film bzw. Sensor (chromatische Aberration). Achromate (Linsensysteme mit Schichtaufbau) helfen diesen Effekt zu vermeiden.

Oft sind Filter (und Objektive) zur Reflexionsverminderung im sichtbaren Spektrum noch vergütet. Der Reflexionsverlust beträgt pro Luft/Glas Grenzfläche ca. 4% bis 5%:

ΔR = (1 - n)² / (1 + n)²

mit dem Brechungsindex n des Linsenmaterials in Luft (nLuft ≡ 1).

Also ca. 8% bis 10% pro Durchgang durch eine Glasplatte. Mit der Vergütung ist eine Reduktion auf 1% bis 2% möglich. Manchmal kann man das an den im schrägem Auflicht bunt schillernden Oberflächen erkennen, da ΔR leicht vom Einfallswinkel abhängt.
Höherwertige Objektive besitzen manchmal auch einen IR-Umschalter für die Arbeit speziell mit Wellenlängen im nahen Infrarot bei 780 Nanometer und mehr. Dann stimmt auch die Abstandskala auf dem Fokusring wieder. (Das IR Bild entsteht wegen der geringeren Brechung größerer Wellenlängen tiefer in der Kamera.)

Nebenbei: Die Transmission von normalem Objektivglas fällt bei Wellenlängen um die 320 Nanometer und darunter stark ab. Im langwelligen Bereich liegt der Abfall weit außerhalb von dem, was ein Sensor auf Siliziumbasis noch sieht. Übrigens besteht auch die Deckschicht eines Sensors aus Quarzglas (Siliziumdioxid). Darüber liegt noch eine dünne Schicht Siliziumnitrid.
Will man Aufnahmen in einem anderen Spektralbereich machen, muss man andere Sensor- und sogar Linsenmaterialien einsetzen. Beispielsweise finden in IR-Kameras und speziell in Wärmebildkameras, die im Wellenlängenbereich um und über 3 Mikrometer arbeiten, u.a. Sensoren aus Indium-Gallium-Arsenid (InGaAs) Verwendung.

Δ

CCD kontra CMOS Sensoren

Funktionsprinzipien

Die beiden gängigen Festkörper-Sensortechnologien, CCD (Charge Coupled Device; dt.: Ladungsgekoppelte Schaltung) und CMOS (complementary metal oxide semiconductor; dt.: Komplementärer Metall-Oxid-Halbleiter), basieren auf Silizium als Ausgangsmaterial. Beide haben ihre Vor- und Nachteile, die in ihrer Funktionsweise begründet sind. Sie nutzen den inneren fotoelektrischen Effekt - im Prinzip arbeiten die Pixel wie eine Anordnung von Solarzellenpanelen auf dem Hausdach oder einer Wiese: ein Pixel = eine Solarzelle, mehr Licht = mehr Ladung bzw. Strom.

CCD und CMOS Zellenbeschaltung
CCD und CMOS Schaltungsprinzipien

Das Bild links zeigt die Grundfunktion von CCD und CMOS Zelle im Vergleich.
Die durch Lichteinfall erzeugte Ladung in der CCD Zelle wird direkt von jeder Zelle ausgelesen. Diese Ladungen werden schrittweise aus dem fotoaktiven Gebiet transportiert, das sog. CCD Eimerkettenprinzip. Außerhalb werden sie analog/digital gewandelt bzw. verstärkt.
In jeder CMOS Zelle generiert das einfallende Licht einen zu seiner Intensität proportionalen Fotostrom und reduziert den Sperrwiderstand der Fotodiode. Diese Sperrströme durch die Fotodioden (d.h. die generierten Ladungen) werden weiterverarbeitet.

Die Zellen eines CCD Sensors funktionieren wie Belichtungsmesser, die Ladungen sammeln und in bestimmten Abständen ausgelesen werden. Die schnellen CCD Sensoren gibt es in drei Ausführungen: FT ((Full) Frame Transfer), ILT (Interline Transfer) und FIT (Frame Interline Transfer). Für Standbildaufnahmen genügt das Full Frame Prinzip: Die Ladungen bleiben bis zum Auslesen im aktiven Bereich gespeichert, zentral abgeschattet durch einen mechanischen Verschluss.
Bei FTs wird das komplette Bild durch die aktiven Zellen in einen separaten lichtgeschützten Bereich außerhalb des fotosensitiven Gebiets verschoben und dort verarbeitet. Wegen der unterschiedlichen Struktur kann man die beiden Bereiche oft schon mit bloßen Auge erkennen. Bei ILTs alternieren fotosensitive und Auslesezeilen im vom Objektiv ausgeleuchteten Bereich. Die Ladung jeder Fotozelle wird direkt in die zugehörige lichtgeschützte benachbarte Zelle geschoben und diese Zeile dann ausgelesen. FITs sind eine Kombination der beiden Designs.
FTs erreichen einen Füllfaktor von nahezu 100%, sind aber anfällig gegen Zweitbelichtung im Auslesezeitraum (engl.: smear). ILTs und FITs weisen einen reduzierten Füllfaktor auf, sind aber in der Auslesephase nicht so empfindlich.
Als Füllfaktor bezeichnet man das Verhältnis von optisch sensitiver Fläche zur Fläche für die Ansteuerelektronik einer Zelle. Dadurch wird er auch ein Maß für die Lichtempfindlichkeit, vorausgesetzt die Basistechnologie ist vergleichbar.

CMOS Sensoren messen kontinuierlich den vom Licht induzierten Fotostrom. Man nutzt die Proportionalität von induzierter Ladung bzw. Sperrstrom und Beleuchtungsstärke an einer Fotodiode. (Korrekt ausgedrückt, misst man den Strom zur Umladung der Sperrschichtkapazität am pn-Übergang der Fotodiode. Man kann sich einen Kondensator parallel geschaltet zur Diode vorstellen, der durch Lichteinfall entladen wird. Es gibt verschiedene Realisierungsmöglichkeiten für entsprechende Schaltungen.)
Die Zellenstruktur und Beschaltung ähneln sehr stark dem Aufbau eines DRAMs, und so sind auch schon mit aufgeschabten (d.h. entferntem Vergussgehäuse) Speicherbausteinen experimentelle Aufnahmen gemacht worden.
Ein PPS (Passive Pixel Sensor) funktioniert ähnlich einem CCD ILT. Die durch Beleuchtung in einer fotosensitiven Zelle, meist eine Fotodiode, generierten Ladungen werden Zelle für Zelle direkt ausgelesen und außerhalb des fotoaktiven Bereichs verstärkt und analog/digital gewandelt.

CMOS APS Pixelzelle
CMOS APS mit globalem Shutter

Heutzutage geht der Trend zum APS Prinzip. (Active Pixel Sensor. Das Akronym hat nichts mit dem APS-C Format zu tun.) Hier arbeiten die fotosensitiven Zellen praktisch nach dem indirekten Prinzip eines CCD Sensors: Die Belichtung einer Fotodiode steuert über einen CMOS Transistor (Verstärker) die Verbindung zur Versorgungsspannung Vcc. Jede Zelle enthält gleich ihre eigene Verstärkerschaltung.
Da Lichteinfall die Fotozelle entlädt, könnte man das mit dem Negativverfahren beim Fotografieren mit Film vergleichen.

Das Bild links zeigt die Struktur einer CMOS APS Zelle. Ablaufbeschreibung: Über den Schalter reset wird eine Vorladung eingebracht. Danach öffnet sich der Schalter wieder und über die Fotodiode D fließt belichtungsabhängig Ladung ab. Damit ändert sich die Ansteuerspannung am Verstärker T und damit die Spannung V. Durch den optionalen Schalter t shutter (falls vorhanden) kann man den Entladevorgang unterbrechen, der Kondensator C steuert den Verstärker T dann ganz alleine.

Die Vorspannung (hier über den Schalter reset eingebracht), die jedes Mal bei der Belichtung über die Fotodiode abgebaut wird, ist der Grund für die Sättigungsunempfindlichkeit von CMOS APS im Gegensatz zu CCD Sensoren. Mehr als völlig entladen geht nicht.
Die einfachste Zelle besteht aus drei Transistoren, nämlich dem Schalter für die Initialisierung zu Bild-/Belichtungsbeginn (reset), dem Schalter für das Auslesen (read) und dem eigentlichen Verstärker (T). Diese Schaltung erlaubt nur einen rollierenden Verschluss. Fügt man in die Ansteuerung des Verstärkers eine Art Abtast-Halteglied ein (t shutter und Kondensator C), erhält man einen globalen Shutter. Das ist ein elektronischen Verschluss, der auf den ganzen Sensor zum selben Zeitpunkt wirkt und nicht nur zeilenweise wie der rollierende Verschluss, der einem fallenden Vorhang ähnelt.
Mit weiteren Transistoren erhält man zusätzliche Möglichkeiten der Ansteuerung und Verbesserungen der Signalqualität. So kann man mit einer 5- oder 6-Transistor-Zelle Aufnahme und Auslesen voneinander entkoppeln, also bereits wieder einlesen bzw. belichten, während der Ausleseprozess noch läuft.

 

CCD Sensoren

CCD Sensor
EG&G Reticon Frame-Transfer CCD Sensor
HS0512JAQ; 512x512 Pixel auf 8,19x8,19 mm²;
Keramik DIP-Gehäuse; >1 000 fps, monochrom

  • sind seit einigen Jahrzehnten in der Produktion und im Einsatz

  • liefern von Natur aus gute Bilder, andernfalls würde man den entsprechenden Sensor aussondern und erst gar nicht verwenden

  • können (als FT) einen Füllfaktor von nahezu 100% erreichen

  • sind auch im nahen Infrarot empfindlich (deshalb haben vor allem viele Farb-Kameras IR-Sperrfilter eingebaut)

  • brauchen oft mehrere Versorgungsspannungen und haben eine hohe Leistungsaufnahme

  • sind um ein mehrfaches lichtempfindlicher - im positiven wie im negativen Sinn. Man kann zwar bei geringerer Ausleuchtung aufnehmen, aber die Sensoren sind überstrahlungsempfindlich. So zeigen sich bei sehr hellen Partien fackelartige Auslöschungen (engl.: blooming) in benachbarten Bereichen, die sich mitunter über den ganzen Bildausschnitt erstrecken können; hohe Einstrahlung während der Auslesephase kann zu einer Art Doppelbelichtung (engl.: smear) führen.

  • werden nur von sehr spezialisierten Halbleiterherstellern beherrscht. Mit steigender Pixelzahl sinkt die Ausbeute dramatisch, da prinzipbedingt, vor allem bei FT Sensoren, die optisch aktiven Bereiche in der Auslesephase als Drahtleitung verwendet werden. Eine defekte Zelle kann eine ganze Zeile bzw. Spalte lahm legen. Der Sensor ist dann unbrauchbar.

 

CMOS Sensoren

150 mm Wafer auf blue tape
6-Zoll Wafer mit 45 CMOS Sensoren auf blue tape

  • rauschen wegen ihrer inhomogenen Struktur stärker und zeigen ähnliche Probleme wie Flachbildschirme. Ein paar Fehlstellen können schon vorkommen, die dann eben weg gerechnet werden. Man muss sich mehr um die Bildaufbereitung kümmern (unter anderem Defektkorrektur ausgefallener Pixel, sogenanntes mapping). Jedes Pixel wird individuell abgeglichen (Gain/Offset Einstellung).

  • erreichen möglicherweise nur einen Füllfaktor von um die 50% und sind deshalb üblicherweise weniger lichtempfindlich

  • sind als APS (Active Pixel Sensor) prinzipbedingt nahezu unempfindlich gegen Überstrahlung. PPS (Passive Pixel Sensor) sind jedoch etwas kritischer

  • zeigen in etwa die gleiche spektrale Empfindlichkeit (d.h. Farbwahrnehmung) wie das menschliche Auge

  • brauchen oft nur eine Versorgungsspannung und haben eine geringe Leistungsaufnahme

  • entstammen der wesentlich gängigeren Technologie. Entsprechende Stückzahlen vorausgesetzt, sind sie deutlich preiswerter. Das Auslesen geschieht außerdem mit separaten Leitungen, so dass ein defekter Pixel durch die Nachbarpixel interpoliert werden kann und nicht den ganzen Sensor ruiniert.

  • bieten die Möglichkeit weitere Schaltungen oder eine Signalvorverarbeitung auf dem selben Chip zu integrieren, um so die Kamera kleiner und flexibler zu machen; der mehr oder weniger wahlfreie Zugriff auf die einzelnen Zellen ermöglicht z.B. die Vorauswahl eines Fensters, genannt Unterabtastung (engl.: partial scan), Windowing, ROI (region of interest) oder AOI (area of interest). Auch Bildverarbeitung für Triggerereignisse (Im-Bild-Trigger) oder eine erneute Zweitbelichtung pro Bild sind vergleichsweise einfach möglich.

 

Gehäuster Sensor Farb-Matrixsensor
Offener CMOS Sensor (die) für die COB Montage
1536x1024 Pixel auf 16,9x11,3 mm²; >1 000 fps, color

 

Diagonales RGB-Farbfiltermuster
Farbfilter in Schräganordnung (Vergrößerung 1 000 x)

Stand der Technik

Doch viele digitale Fotoapparate und Überwachungskameras nutzen offensichtlich noch CCD Sensoren, während bei aktuellen Foto- und Videokameras die CMOS Sensoren nicht wegzudenken sind. In Smartphones mit Kamerafunktion gelangen praktisch ausschließlich CMOS Sensoren zum Einsatz. Generell geht der Trend hin zur CMOS Technik, zur Kamera auf einem Chip.
Bei hochwertigen Spezialkameras tendierte man zwischenzeitlich manchmal noch dazu die Integration in Grenzen zu halten, um die einzelnen Bereiche wie Analog-, Digitalelektronik, Ansteuerung, Versorgung ... individuell optimieren zu können.
Im normalen Einsatz schenken sich die beiden Techniken kaum noch etwas. Allerdings liegen bei rauschempfindlichen Spezialanwendungen die CCD Sensoren vorn. Gegebenenfalls gekühlt. Bei Gegenlichtaufnahmen und möglichen Überstrahlungseffekten (spiegelnde Oberflächen ...) sind wohl CMOS Sensoren die bessere Wahl.
Übrigens: Die oft aufgestellte Behauptung CCD Sensoren seien prinzipiell langsamer als CMOS Sensoren, ist so nicht richtig, schließlich gibt es auch CCD-Hochgeschwindigkeitskamera Sensoren, siehe z.B. die Sensoren von Dalsa oder EG&G Reticon.

In den Bildern rechts oben: Ungehäustes Silizium Plättchen (engl.: die), ca. 20 mm x 15 mm x 0,5 mm in 0,5 Mikrometer-Technik. Der grünliche Bereich ist der Mosaikfilter. Im umlaufenden dunklen Rand erkennt man 137 kleine Quadrate, engl.: bond lands oder pads, für die spätere elektrische Kontaktierung durch Bonddrähte.
Dieser die wird direkt, also ungehäust, auf die Leiterplatte geklebt und dann gebondet (chip on board; COB). Anschließend wird zum Schutz ein Deckel mit Glasboden übergestülpt und mit der Leiterplatte verklebt. (Natürlich sind auch traditionell gehäuste Sensoren verfügbar.)

Im Bild rechts unten: 1 000-fache Detailvergrößerung aus der Filtermatrix des CMOS Sensors. Die lichtempfindliche Fläche der Fotozelle, im Bild gelb markiert, weist mit 11 Mikrometer die halbe Weite der Zellgröße von 22 Mikrometer auf. Die um 45° gekippte Schachbrettmuster-Anordnung aus Bienenwaben-Zellen, wie sie auch Fuji und Sony erfolgreich in ihrer »Super-CCD« bzw. »ClearVid« Anordnung nutzen, ermöglicht gegenüber dem weit verbreiteten Bayermuster eine höhere Auflösung speziell senkrechter und waagrechter Strukturen.

Auch bei Hochgeschwindigkeitskameras machte sich der Wandel bemerkbar. Während typische Systeme aus den 1990ern noch größtenteils gegebenenfalls modifizierte CCD Sensoren nutzten, verfügen Systeme ab Ende der 1990er überwiegend über CMOS Sensoren. Nichtsdestotrotz gibt es weiterhin Systeme mit CCD Sensoren.
Bekannte High-Speed Kamera Sensorschmieden sind Dalsa/Teledyne (Kanada), EG&G Reticon (USA), Fillfactory/Cypress (Belgien), Photobit/Micron/Aptina (USA) oder CSEM (Schweiz).

Δ

Verbesserungsmöglichkeiten

Mikrolinsen

Das Letzte herausholen. Durch einen Füllfaktor, d.h. dem Verhältnis fotoaktiver zur Steuerelektronikfläche, kleiner eins geht Fläche und damit Empfindlichkeit verloren.
Bei der Struktur von CMOS Sensoren bietet sich der Versuch an mit Mikrolinsen zumindest teilweise für eine Kompensierung zu sorgen. Die Linsen sollen Licht, das auf die blinden Stege fällt, zum lichtempfindlichen Teil der Zelle leiten. Speziell bei sehr kleinen Zellgrößen und Füllfaktoren (zehn Quadratmikrometer und 30% Füllfaktor und kleiner) werden sie gerne eingesetzt. Die Mikrolinsen werden fotolithografisch direkt auf der Sensoroberfläche aufgebracht. Wegen der Kleinheit der Linsen, Durchmesser wenige hundertstel Millimeter, und ihrer großen Anzahl - pro Zelle (= Pixel) eine Linse - ist das aber ein gewisses Unterfangen und die optischen Eigenschaften sowie die Gleichförmigkeit werden dadurch nicht unbedingt besser. Das führt dazu, dass man eine unterproportionale Steigerung der Lichtempfindlichkeit erreicht. Erkauft wird das durch einen deutlich höheren Aufwand und eventuell sogar durch eine reduzierte Bildqualität aufgrund optischer Fehler und parasitärer Effekte.

 

Rückseitenbeleuchtete CMOS (BSI, engl.: back-side illuminated)

Die Augen und speziell CMOS Sensoren zeigen einen ähnlichen Aufbau. Bei beiden muss das Licht abschattende Versorgungsschichten passieren - Blutgefäße bzw. elektronische Schaltkreise - bevor es auf die lichtempfindliche Schicht trifft. Füllfaktor und Bildqualität werden dadurch reduziert. Mehr noch, mit weiter geschrumpften Strukturen im Halbleiterdesign muss man zwischen Anforderungen der Elektronik und der Optik abwägen. Weitere Miniaturisierung und kürzere Schaltzeiten sowie Stromsparmaßnahmen führen zu kleinen, rauschenden Fotozellen. Beispielsweise klafft zwischen den Standard Designregeln (Strukturgröße, Leiterbahnbreite, Gateweite) der aktuellen DRAM- und CPU-Technologien und den CMOS Sensor Anforderungen eine Lücke von Faktor 50 oder mehr. (Aktuell liegt die Serien-Strukturbreite lediglich um die 10 nm.) Zudem sind die Transistoren in der Schaltungslogik auf Schnelligkeit getrimmt und schalten hart digital (Bang-Bang oder Ein-/Aus Schalter), während die fotoelektrischen Elemente analog auszulesen sind und eine Übersättigung möglichst vermieden werden soll.

Deswegen die Idee den Sensor von unten her abzutragen, zu »dünnen« (engl.: grinding), und dann zu stürzen. Die Versorgungselektronik liegt dann unten, die Fotozellen in der Mitte und obenauf kommen die Farbmaskierung und etwaige Mikrolinsen.
Die Lücke zwischen immer kleiner werdenden CMOS Standarddesigns und Sensoranforderungen lässt sich dadurch verringern, was die Sensoren auch durch die Integration von weiterer Elektronik preiswerter macht und Defizite, wie z.B. die inzwischen für die Eindringtiefe der Lichtstrahlen nicht mehr tief genug liegende p/n-Übergangsschicht, kaschiert.
Herstellungstechnisch nicht gerade ganz ohne (u.a. muss der Wafer sehr dünn geschliffen werden), aber ähnliches gab es schon mit ausgewählten CCD Sensoren.

Bei ausgewählten Fotokameras sind auch gestapelten Chips, der Sensor-IC liegt auf dem Speicher-IC, im Einsatz.
Oft werden die Sensoren jedoch noch in Technologiefamilien mit größerer Strukturbreite als aktuelle DRAMs oder Prozessoren gefertigt. Das gilt vor allem bei hochwertigen Kameras.

 

Scientific CMOS (sCMOS)

Das beste aus beiden Welten verbinden, der Brückenschlag zwischen CMOS und CCD. Im Gegensatz zu Kameras für den Massenmarkt zählt bei Kameras für technische und wissenschaftliche Anwendungen die Pixelanzahl nicht allein. Vielmehr versucht man für diese Einsatzbereiche (z.B. Mikroskopie) eine optimale Kombination aus Auflösung, Dynamik, Geschwindigkeit ... zu definieren. Speziell trachtet man danach mit möglichst großen Fotozellen und mit eigens aufwändig gestalteten Analog-/Digitalkonvertern auf Pixel- und Zeilen- oder Spaltenebene die Empfindlichkeit und die Rauschunterdrückung des CMOS Schaltungsdesigns zu verbessern. Das benötigt natürlich Platz, so dass zumindest frühe Sensordesigns lediglich über einen rollierenden Shutter verfügten. Der für Video-Hochgeschwindigkeitsaufnahmen so essentielle globale Shutter kann also durchaus einmal nicht verfügbar sein.

Inzwischen sind auch schnelle BSI sCMOS Sensoren erhältlich.

Δ

Objektive und Optiken

Objektivanschluss, Auflagemaß, Brennweite und Crop Faktor

Das wichtigste Kriterium bei der Wahl des Objektives ist zunächst welcher Objektivanschluss (engl.: mount) vom Kameragehäuse vorgegeben wird. Der Mount oder Adapter bestimmt das Auflagemaß (engl.: flange-back, back focus). Es wird zwischen dem letzten zylindrischen Absatz des Objektivgehäuses vor dem Gewinde und der Film- bzw. Sensorebene gemessen. Somit ist also der Abstand zwischen Optik und Bildebene Mount spezifisch. Bei einem Objektiv aus einer anderen Mount-Familie stimmt möglicherweise die Brennweitenaufschrift des Objektives nicht mehr, soweit es sich überhaupt scharfstellen und befestigen lässt. Bei C-Mount beträgt das Auflagemaß z.B. 17,526 mm und bei CS-Mount 12,5 mm. Sieht man auf einmal die Irisblende mehr oder weniger scharf abgebildet und sonst nichts, hat man ein CS-Mount Objektiv auf eine C-Mount Kamera geschraubt. (Mit einem 5 mm Zwischenring passt aber ein C-Mount Objektiv auf eine CS-Mount Kamera.)

Crop Faktor
Bildkreis, Format und Crop Faktor

Innerhalb einer Mount-Familie gibt es diese Probleme nicht. Alle zugehörigen Objektive besitzen das gleiche Auflagemaß, das jeweilige Bild entsteht somit am selben Ort. Der Unterschied besteht lediglich in den verschiedenen Größen der kreisförmigen Bilder, welche die Objektive in der Bildebene liefern. Angegeben wird das Format des Sensors, der vom Objektiv noch ausreichend und ohne zu große optische Verzeichnungen ausgeleuchtet wird. Liegt der Sensor also komplett innerhalb dieses Bildkreises ist alles in Ordnung. Ist er größer, sind die aufgenommenen Bilder weitestgehend scharf, die Ecken neigen jedoch zur Unterbelichtung (Schlüssellocheffekt, Vignettierung). So können insbesondere die C-Mount Objektive der großen Formate für eine C-Mount Kamera mit kleinerem Format meist ohne Probleme verwendet werden, z.B. ein 1 Zoll-Objektiv auf einer 2/3 Zoll-Kamera. Umgekehrt eben nur eingeschränkt, siehe Sensor C im Bild links.

Die Abbildung links illustriert den Crop Faktor, auch Brennweitenverlängerung genannt. Das ist eigentlich ein Pseudoeffekt, denn die Brennweite ist eine unveränderliche Eigenschaft des jeweiligen Objektives. Woher sollte das Objektiv auch wissen, welchen Sensor es bedient? Der unterschiedliche Bildeindruck, speziell der Bildwinkel (auch Öffnungswinkel, Blickfeld), entsteht lediglich dadurch, dass bei der Darstellung auf einem Monitor oder Ausdruck das Bild eines kleineren Sensors (B) stärker vergrößert wiedergegeben wird. Seine Pixel liegen enger beieinander als die beim großen Sensor (A) und werden sozusagen gespreizt dargestellt, freilich ohne dass dadurch die Qualität leidet. Entsprechende Auflösung (Pixelanzahl) vorausgesetzt.
Der Sensor muss zumindest innerhalb des Bildkreises des Objektives, bezeichnet als »Format«, liegen, sonst tritt Vignettierung auf (C).

Vergleicht man zwei formatfüllende Aufnahmen eines Objekts, z.B. eine von einer C-Mount Kamera mit 1/3 Zoll Sensor und eine von einer mit 2/3 Zoll Sensor, sieht man eigentlich keinen Unterschied. Am Monitor sind sie beide gleich groß.
Da die Bilder aber auf unterschiedlich großen Sensorflächen entstehen, muss die Vergrößerung beim kleineren Sensor (hier B) kleiner sein, damit das Bild noch auf ihn passt. Das selbe »XY Millimeter«-Objektiv vor einem größeren Sensor (hier A) wirkt deshalb beim Einsatz an einer Kamera mit kleinerem Sensor, als hätte es eine längere Brennweite und umgekehrt. Das gilt aber nur uns ausschließlich, wenn man die Aufnahmen auf Basis der Öffnungswinkel vergleicht (= was beim selben Objektiv auf den jeweiligen Sensor passt). In soweit gehören Brennweite und Bildformat zusammen und bestimmen den Abbildungsmaßstab. Der Bildkreis ist jedoch allein abhängig vom Objektiv. Und die Brennweite ebenfalls. (Die Sensorgröße allein ist dafür verantwortlich. Nur steht sie leider nicht auf der Kamera.)

Allenfalls könnte man den Begriff »effektive Brennweite« für die Änderung des Bildausschnitts einführen, aber worauf beziehen? Nun, oft wird im allgemeinen Sprachgebrauch dieser Pseudoeffekt der Brennweitenverlängerung als (digitaler) Crop Faktor bezeichnet:

Crop Faktor = 43,3 mm / Sensordiagonale [mm]

Der Wert (ca. 1,5 bis 2 beim Vergleich typischer digitaler SLR-Kameras gegenüber 35 mm Kleinbildkameras mit 24 mm x 36 mm und damit 43,3 mm Diagonale; daher dann manchmal auch der Ausdruck »XY mm Kleinbildäquivalent«) gibt an, um wie viel sich die Brennweite anscheinend verlängert, weil die Sensordiagonale letztlich um diesen Faktor kleiner ist. Die englische Bezeichnung (crop = zurechtschneiden) wird dem Vorgang also eher gerecht, als der deutschsprachige Begriff. Beim kleineren Sensor geht eben viel Bild daneben. Man sieht nur das Zentrum und interpretiert das als Tele/Zoom Effekt, wenn der Monitor den Sensor Bildschirm füllend darstellt, siehe obiges Bild.

Bei hohen Ansprüchen sollte man allerdings berücksichtigen, dass der Bereich mit optimal korrigierten Abbildungsfehlern kleiner ist als der maximal ausgeleuchtete und dass kleinere Formate wegen der höheren Pixeldichte qualitativ bessere Objektive benötigen. Abgesehen davon sollte man die Bildqualität einer guten Kamera nicht durch einen besseren Flaschenboden als Objektiv ruinieren. Dann bleibt das Bild bis in die Ecken scharf.

In der professionellen Fotografie macht man mit Wechselobjektiven im großen Umfang Gebrauch von den damit verbundenen Möglichkeiten.
Ist die Brennweite eines Objektives etwa so groß wie die Formatdiagonale spricht man gern vom »Normalobjektiv« für dieses Format. Bei Kleinbildkameras wären das ca. 50 mm ±5 mm, siehe auch den nächsten Abschnitt und [SloMo Tipps]. Dann entspricht der Öffnungswinkel etwa dem (scharfen) Gesichtsfeld des Menschen.

 

Formate

Doch eine wichtige Angabe: Bei CCTV-Videokameras wird gern das Format oder Bildfenster, d.h. die Größe des optisch aktiven Bereichs auf dem CCD oder CMOS Sensor, in Zoll angegeben. Die etwas willkürlichen Maßangaben stammen noch aus der Vidicon Röhrenära. Auf deren (Stecksockel-!) Abmessungen gehen die Werte zurück. Als Basis dient der zöllige Sensor mit einer Diagonalen von ca. 16 mm:

Zölliges Format ≈ Sensor Diagonale [mm] / 16 mm

oder bei zölligen Angaben:

zölliges Format ≈ Sensor Diagonale [Zoll] / 1,5875

obwohl ein Zoll eigentlich 25,4 mm misst. Mit kleinerem Sensor wird die Kamera kleiner und die nominelle Sensorausbeute pro Wafer bei der Herstellung natürlich größer.

Format [Zoll] Breite [mm] Höhe [mm] Diagonale [mm] Bemerkung
1/10 ~ 1,44 ~ 1,08 ~ 1,8 autarke CCD Kamera für den medizinischen in corpore Einsatz (zum Runterschlucken)
1/8 ~ 1,626 ~ 1,219 ~ 2,032 CMOS Kameras für Sonderzwecke
1/7 ~ 2,055 ~ 1,624 ~ 2,619 CMOS Kameras für Pads, Smart- und Mobiltelefone ...
[128² pixel] 2,048 2,048 2,896 Dalsa CA-D1-0128A CCD, 736 fps (optimiert 2 020 fps)
1/6 2,4 1,8 3,0 Einplatinenkameras für Sonderzwecke
1/5 2,88 2,16 3,6 Einplatinen- oder Einfach-Kameras, Webcams ...
1/4 3,6 2,7 4,5 Kameras für Überwachungsaufgaben (typisch mit Nadelöhrobjektiv)
[256² pixel] 4,096 4,096 5,793 Dalsa CA-D1-0256A CCD, 203 fps (optimiert 531 fps)
1/3 4,8 3,6 6,0 Kameras in der Automatisierung (»Machine Vision«)
1/2 6,4 4,8 8,0 v.a. tragbare TV-Video-Kameras, oft 3-Chip Version
1/1,8 7,2 5,4 9,0 Standard- (CCD/CMOS) Fotokameras
2/3 8,8 6,6 10,991 Standard im Bildverarbeitungsbereich
[512² pixel] 8,19 8,19 11,582 EG&G Reticon HS0512JAQ CCD, 1 000 fps (optimiert 1 094 fps)
16 mm Film 10,3 7,5 12,7 16 mm Film Kameras (Stalex, HYCAM), 3 000 fps, 10 000 fps
1 12,7 9,525 15,875 professionelle (Studio) TV-Video-Kameras
[1280x1024 pixel] 15,36 12,29 19,67 Photobit MV-13 CMOS (Aptina MT9M413C36ST C/M), 500 fps
[1536x1024 pixel] 16,896 11,264 20,306 FhG/CSEM Cam 2000 Visario CMOS, 1 106 fps
1¼ (30 mm) 17,1 12,8 21,4 professionelle (Studio) TV-Video-Kameras
4/3 (»Four Thirds«) ~ 18,0 (nicht def.) ~ 13,5 (nicht def.) 22,5 semi-professionelle digitale SLR Fotoapparate
35 mm Film 22,05 16,03 27,85 professionelle 35 mm Filmkameras
APS-C (24,0) 25,1 bis 25,5 (16,0) 16,7 bis 17,0 ~ 30,15 APS-C Film- und Sensorfotoapparate
Kleinbild 36,0 24,0 43,3 Kleinbild-Fotoapparate und »Vollformat« Digitalkameras


Sensorgrößen und Formate. Legende: fps = frames per second, dt.: Bilder pro Sekunde. (In Grün: einige Hochgeschwindigkeitskamera Matrix Sensoren.)

 

Blende

Die Belichtung - mit der Blende (engl.: f-stop) wird  die Lichtmenge, die auf den Sensor oder den Film fällt, eingestellt. Die Blendenzahl ist definiert als k = Brennweite / effektiver Öffnungsdurchmesser. Auf dem Blendenring sind die Blendenzahlen als Wurzel-2-Fache aufgedruckt (1,4 - 2 - 2,8 - 4 - 5,6 - 8 - 11 - 16 - 22 - 32 - ...). Mit zunehmender Blendenzahl reduziert sich die durchgelassene Lichtmenge so, dass man pro Stufe nur die Hälfte der Intensität erhält.
Der Kehrwert der kleinsten Blendenzahl wird gerne »Lichtstärke« genannte. Will man jedoch zwei Objektive, die die identische Bildhelligkeit liefern, braucht man identische T-Blenden (engl.: t-stop), definiert als t-stop = 10 x f-stop / √ Transmission [in %], so wie sie bei Objektiven von Spielfilmkameras üblicherweise angegeben werden.
Bei gleich großem Sensor vergrößert eine kleiner Blendendurchmesser (= große Blendenzahl) den Tiefenschärfenbereich, siehe [SloMo Tipps].

 

Zoom Objektive, digitale Objektive und Auflösung

Die Bezeichnung Zoom steht für Objektive, die durch meist stufenlose Brennweitenvergrößerung innerhalb eines vorgegebenen Brennweitenbereiches Objekte heranholen können. Gewöhnlich sind sie groß, schwer, teuer und lichtschwach. Nach Möglichkeit sollte man lieber Wechselobjektive verschiedener, aber fester Brennweiten verwenden. Es gibt echte Zoom Objektive, bei denen das Bild während der Zoomfahrt scharf bleibt, und Vario Fokus Objektive, bei denen man auch die Brennweite verändern kann, man aber zugleich auch nachfokussieren muss.
Mit »Digitaler Zoom« oder »Elektronischer Zoom« bezeichnet man die Vergrößerung eines Bildausschnittes mit Mitteln eines (einfachen) Bildverarbeitungsprogrammes. Große Zoomstufen führen zu pixeligen Bildern. Normalerweise ist elektronischer Zoom kein würdiger Ersatz für ein entsprechendes Zoom Objektiv, auch wenn er gerne so vermarktet wird.
Übrigens, ähnliches Thema: »5x Zoom« sagt nichts über die Vergrößerung eines Objektives, sondern nur, dass seine kleinste einstellbare Brennweite 5 mal kleiner ist als seine größte.

In der Zwischenzeit werden auch »digitale« Objektive, oder manchmal auch telezentrische Objektive genannt, angeboten. Sie sind so konstruiert, dass bildseitig ein möglichst senkrechter Strahleneinfall auf den Sensor erreicht wird. Damit wird der schachtartigen Pixelstruktur Rechnung getragen, die sich speziell bei kleinen Sensoren mit hoher Pixeldichte durch Störungen wie Beugung, Abschattung, Fehlfarben, Dämpfung ... nachteilig bemerkbar macht. (Gerade die kleinen, preiswerten Sensoren benötigen aufwändige und teure Objektive.)
Solche Objektive als telezentrisch zu bezeichnen ist aber unglücklich. Dieser Typ von Spezialobjektiven bildet ein Objekte nämlich unabhängig von seiner Entfernung gleich groß ab. Man nutzt diese Optiken speziell in der Bildverarbeitung zu Messaufgaben. Wenn man damit z.B. in ein Rohr blickt, verjüngt es sich nicht mit zunehmender Entfernung, sondern es sieht wie eine Unterlegscheibe aus und man kann problemlos den Innendurchmesser und die Wandstärke bestimmen. Bei einer üblichen Landschaftsaufnahme ergäbe sich der skurrile Effekt, dass z.B. Straßen, die zum Horizont laufen, sich nicht verjüngen.

Befasst man sich mit dem Begriff Auflösung, ist es sehr empfehlenswert sich mit der Modulationsübertragungsfunktion MTF vertraut zu machen, exzellent erklärt z.B. unter Qualitätsmerkmale von Objektiven von Schneider-Kreuznach.

 

Bildebenenversatz

Der trifft einen eher selten - bei nicht senkrechtem Strahldurchgang durch eine planparallele Platte gibt es einen seitlichen Bildversatz. Bringt man einen dünnen Filter vor dem Objektiv an, hat das wegen des meist großen Objektabstands auf die Bildlage des optischen Systems praktisch keine Auswirkungen. Das ändert sich aber drastisch, wenn man hinter dem Objektiv ein Schutzglas, einen Filter oder einen LC-Shutter einbringt. Diese planparallelen Platten führen (zusätzlich) zum sogenannten Glasverzug

Δd = (1 - 1/n) × d

mit dem Brechungsindex n und der Dicke d des Plättchens (nLuft ≡ 1).

Bei einem Glasplättchen läge das Bild damit ca. 1/3 seiner Dicke hinter dem Sensor, weil sich das effektive Auflagemaß entsprechend verlängert. Es muss eine Mechanik vorgesehen werden, die diese zusätzliche Distanz zwischen Objektiv und Kameragehäuse, genauer dem Sensor, entsprechend ausgleicht.
Deswegen auch die Gewindestifte bzw. Einstellmechaniken an Objektivadaptern z.B. von Kameras, die für den wahlweisen Einbau eines internen LC-Shutters oder eines zusätzlichen internen (IR-Sperr-) Filters vorbereitet sind, oder die auch IR tauglich sein sollen.

 

Δ

Die [TOUR] zeigt einige Tipps und Tricks rund um die Aufnahmerealisierung.