Film oder Sensor - und warum das wichtig ist bezüglich der verwendeten Objektive

Verfasst von Ulrich Witt. Veröffentlicht in Technikhintergrund

Inhaltsverzeichnis[Anzeigen]

Ob man es glaubt oder nicht: es macht einen Unterschied, ob ein Objektiv urspünglich für eine Film-Kamera konstruiert wurde oder ob man bei der Konstruktion direkt an eine digitale Kamera mit Sensor gedacht hat. Einer der Gründe ist, dass beim Film die Bilder anders entstehen als beim Sensor. Mir hat das sehr geholfen zu verstehen, warum Fotos, die mit Altglas-Objektiven gemacht wurden, irgendwie "anders" aussehen als solche, die mit modernen Linsen entstanden sind. Das muss nicht unbedingt schlecht sein, aber warum das so ist, erkläre ich hier.


1. Behauptung: Alte Objektive sind schlechter, weil sie an Digitalkameras grundsätzlich "vignetieren"

Vignetierung meint das Phänomen, dass ein Bild am Rande etwas dunkler erscheint als in der Mitte. Und wenn man ältere Objektive verwendet, ist es hilfreich, wenn man dazu auch ein bisschen weiß. Und ja, es hilft auch, wenn man sogar noch einen Schritt zurückgeht und darüber nachdenkt, wie überhaupt ein Bild entsteht.

1.1. Technischer Exkurs: Wie aus Licht auf Filmen und Sensoren Bilder entstehen

Um es kurz zu sagen: dem klassischen Film ist es vollkommen egal, aus welcher Richtung das Licht kommt, dem Sensor ist das überhaupt nicht egal.

Die etwas längere (aber dennoch vereinfachte) Erklärung dafür sieht wie folgt aus:

Ein 35-mm-Film ist eigentlich nichts anderes als ein durchsichtiger Träger, auf die eine dünne lichtempfindliche Schicht wie z.B. Silberhalogenidkristalle (auch "Silberkorn" genannt) aufgetragen ist. Sobald ein Lichtphoton auf ein Molekül trifft, verändert es dauerhaft seine Eigenschaft. Je mehr Licht auf "den Film" auftrifft, desto mehr Silberkörner werden eben auch getroffen und reagieren entsprechend: das Bild wird dunkler. Aus welcher Richtung das Photon dabei gekommen ist, ist vollkommen egal. Der eine oder andere hat auf alten Bildern vielleicht schon einmal gesehen, dass in einer der unteren Ecken ein Datum mit im Bild zu sehen ist. Es gab für viele Filmkameras sogenannte "data backs" oder "Datenrückteile": Abdeckungen der Filmklappe, an der man das Datum einstellen konnte und die dann den Film von hinten belichtet hat (siehe nebenstehendes Bild einer Minolta 7000 mit dem Data Back 70 (Quelle mit näheren Erläuertungen in Englisch). Man sieht: Aus welcher Richtung das Photon kommt, ist dem Film vollkommen egal.

Sensoren arbeiten anders: hier löst das auftreffende Photon keine chemische Reaktion aus, sondern der Sensor misst qausi, mit wieviel Energie das Photon auf den jeweiligen Pixel auftrifft und wandelt dieses dann in ein elektisches Signal um.Und im Gegensatz zum Film ist es nicht egal, aus welcher Richtung das Photon auftrifft. Das Ganze kann man sich in etwa so vorstellen: wir lassen eine Kugel 2x mit gleicher Geschwindigkeit auf eine Fichtenholzplatte fallen. Beim ersten Mal halten wir die Holzplatte so, dass die Kugel in einem 90°-Winkel aufprallt, beim zweiten Mal halten wir sie so, dass die Kugel in einem 45°-Winkel aufprallt. In beiden Fällen wird die Kugel eine Delle hinterlassen, aber die Delle des ersten Versuches wird tiefer sein als die des zweiten. Obwohl beide Kugeln gleich schnell waren, hat die erste Kugel mehr Energie an die Holzplatte übertragen. Ähnlich ist es auch beim Sensor: Trifft das Licht-Photon im 90°-Winkel auf, kann es seine Energie am Idealsten auf den Sensor übertragen. Je schräger es auftrifft, desto weniger "belichtet" es also den Sensor bzw. der Sensor brauch für ein gleiches Energiesignal mehr Photonen.

1.2. Was das für die Konstruktion von Objektiven bedeutet

Kurz gesagt hat der Unterschied zwischen Film und Sensor tatsächlich zur Folge, das "alte, analoge" Objektive an digitalen Kameras etwas mehr zur Vignetierung neigen, als Objektive, die direkt für die Verwendung an digitalen Objektiven konstruiert wurden. Aber warum ist das so?

Der 35-mm-Film (der übrigens so heißt, weil der Filmstreifen 35 mm breit ist) hat ein tatsächliches Aufnahmeformat von 36 mm x 24 mm. Das ergibt etwa eine Diagonale von 43,3 mm. Ein Objektiv, dessen Hinterlinse ausreichend groß wäre, damit alles Licht senkrecht auf den Film fällt, müsste also mindestens einen Durchmesser von eben jenen 43,3 mm haben (besser sogar noch ein bisschen mehr). Ich hab mal grob die Hinterlinse meines Minolta 24 mm/2.8 vermessen. Sie hat einen Durchmesser von etwas mehr als 17mm. Die "Austrittslinse" ist also deutlich kleiner als die Diagonale des 35-mm-Film.

Das ist wie gesagt für die Belichtung des Films auch überhaupt kein Problem, solange das Licht überhaupt auf dem Film ankommt. Aber bei einer Sensor-Kamera sieht das schon anders aus. Die Lichtstrahlen (oder genauer: die Lichtphotonen), die am Rand des Sensors auftreffen, treffen eben nicht senkrecht, sondern schräg auf den Sensor auf und geben daher eben auch nicht ihre ganze Energie an den Sensor ab. Es entsteht also der Eindruck, dass das Bild dort etwas dunkler als in der Mitte des Bildes erscheint. Ich habe leider aktuell ein modernes digitales 24 mm-Objektiv zur Hand, aber ich bin mir sicher, dass die Austrittslinse hier deutlich größer wäre.

1.3. Ist Vignetierungüberhaupt ein Problem?

Zumindest für mich ist es ein nachrangiges Problem. Zum einen ist die Vignetierung gar nicht so stark, wie man annehmen möchte. Zum zweiten ist Vigentierung ein Phänomen, das abnimmt, je mehr man die Blende schließt. Zum dritten findet sich in jeder halbwegs brauchbaren Fotobearbeitungssoftware die Möglichkeit, Vignetierung zu bearbeiten. Und zum vierten: "it's not a bug, it's a feature". Sehr häufig wird bewusst mit Vignetierung gespielt und diese als stilistisches Mittel verwendet. Es ist wie in vielen anderen Dingen auch: Wenn man das "Problem" kennt, ist es keines mehr.

Hinzu kommt, dass bei der Kombination "analoges Objektiv an APS-C-Kamera" dieses Phänomen so gut wie gar nicht auftritt. APS-C-Sensoren haben in der Regel eine Größe von 23,7 mm x 15,6 mm (die von Canon sind etwas kleiner). Die Diagonale beträgt also nur etwa 28,4 mm. Selbst am Rand des Sensors treffen die Photonen also noch relativ senkrecht auf. Wenn man also analoge Objektive verwenden will, so eignen sich dafür eher  APS-C-Kameras.

2. Behauptung: Alte Objektive korrigieren Fehler schlechter und sind generell unschärfer

Immer wieder mal findet man die Behauptung, alte Objektive korrigieren Fehler schlechter und seien per se unschärfer. Nun könnte man sagen, dass das in der Natur der Sache liegt, weil sich die technische Entwicklung an sich weiter entwickelt hat. Aber tatsächlich hat dies - zumindest indirekt - auch damit zu tun, dass man früher mit Filmen fotografiert hat. Eigentlich ist der Grund sogar ziemlich banal, aber irgendwie kommt man nicht sofort drauf, und deswegen lohnt es sich, es mal zu erklären.

2.1. Über die Unmöglichkeit, perfekte Objektive zu konstruieren

Ich muss ein wenig ausholen und zunächst die Frage stellen, wie eigentlich ganz grundsätzlich das perfekte Objektiv aussehen müsste (egal ob für Film- oder Sensorfotografie). Nun, ganz einfach:

  • so scharf wie möglich,
  • möglichst wenig sonstige Bildfehler,
  • möglichst lichtstark,
  • möglichst klein und leicht und
  • möglichst bezahlbar.

Jede Verbesserung eines Aspekts verschlechtert alle anderen. Ein 100% scharfes Objektiv, dass tatsächlich überhaupt keine keine Bildfehler produziert, wäre weder lichtstark, noch klein, noch bezahlbar. Wollte man dennoch mehr Lichtstärke, müsste das Objektiv noch größer werden und am Ende würde es auch noch teuerer und letztendlich unbezahlbar werden. Grundsätzlich sind also Objektive immer ein Kompromiss, und damit gehören auch Bildfehler immer mehr oder weniger zu jedem Objektiv dazu. Aber was meint man eigentlich, wenn man von Bildfehlern redet?

2.2. Was sind Bildfehler und wie werden diese korrigiert?

Jede:r kennt das Plattencover zum Pink Floyds Album "The Dark Side of the Moon" mit dem Lichtstraht, der durch ein Prisma tritt und dabei in die Farben des Regenbogens aufgebrochen wird. Genau das passiert auch in Objektiven, und wenn man diese Lichtbrechung nicht "korrigiert", wirkt sich dies auch auf das Bild aus. Immer wieder findet man das Argument, alte Objektive würden diese Fehler schlechter korrigieren. Aber ist das so?

Nun, jede Linse produziert mehr oder weniger solche "Abbildungsfehler". Aber es gibt verschiedene Arten von Fehlern, denen man begegnen kann. Die wichtigsten Fehler sind wohl folgende

  1. Farbfehler wie z.B. chromatische Aberrationen
    an Objekten mit scharfen Ränder und mit hohen Kontrasten im Bild erscheinen diese Ränder nicht scharf, sondern haben schmale bunte Kanten. [Anmerkung: zu Farbfehlern werde ich vielleich noch mal einen eigenen Blogbeitrag nachschieben, habt Geduld 😊)
  2. Randabschattungen/Vignetierung
    Insbesondere bei größere Blende erscheinen die Ecken des Bildes abgedunkelt (wir sprachen schon über das Phänomen der Vignetierung)
  3. Verzeichnungen
    aufgrund der Brennweite (im Weitwinkelbereich sieht das Bild ein wenig "tonnenförmig aufgebläht" aus, im Zoombereich ein wenig so als hätte man wie bei einem Kissen ein wenig an den Ecken gezogen), und
  4. Unterschiedliche Schärfegrade in der Bildmitte und am Rand, obwohl eigentlich alles auf einer Schärfeebene liegt.

Jeder dieser Fehler lässt sich isoliert betrachtet inzwischen sehr gut kompensieren, indem man in ein Objektiv sog. Korrekturlinsen einfügt. Aber wie schon oben gilt auch hier: jede Verbesserung eines Aspekts verschlechtert alle anderen. Natürlich kann man sich bemühen, alle Fehler so gut wie möglich zu korrigieren - aber dann hat man eben wieder das oben beschriebene Problem, dass das Objektiv dann teuer, schwerer und lichtschwächer wird. Also auch hier: Objektive sind immer nur ein Kompromiss.

Aber: es macht tatsächlich einen Unterschied, ob es sich um ein Objektiv handelt, das für eine analoge oder für eine digitale Kamera konstruiert ist.

2.3. Was Bildfehler bedeuten, wenn man mit Film oder Sensor fotografiert

Nochmal zur Erinnerung:
Die Technik des Films ist letztendlich ganz einfach: Photon sorgt für chemische Reaktion. Fertig. Wenn der Film entwickelt wird, wird eigentlich nichts anderes gemacht als das Ergebnis durch chemische Behandlung des Films zu "fixieren", so dass zukünftig Licht eben keine chemischen Reaktionen mehr verursachen. Kurz gesagt: So wie das Licht auf den Film aufgetroffen ist, so ist das Ergebnis dann auch. Zwar kann man bei der Herstellung der Abzüge noch etwas an grundsätzlichen Belichtung korrigieren, aber ansonsten war es. Kurz gesagt: Was reinkommt ist das, was du kriegst.

Oder anders gesagt: wenn man mit Film fotografiert, kann die Bildoptimierung auschließlich im Objektiv stattfinden. Die Kamera hat keine Möglichkeit, noch optimierend auf das Bild einzugreifen. Wenn man hingegen mit Sensor fotgrafiert, ist das mitnichten so, denn auch wenn der Begriff "Raw-Format" (raw = engl. für roh) es vorgaukelt, so werden gar nicht die originären Sensordaten gespeichert, sondern die Daten des Sensors werden durch die Software in der Kamera schon das erste Mal bearbeitet, um sie überhaupt "lesbar" zu machen. Das, was auf der Speicherkarte landet, sind gar nicht die originären Sensordaten. Anders herum bedeutet dies aber auch, dass bereits in der Kamera eine erste "digitale Nachbearbeitung" stattfindet - die eben auch schon erste digitale Fehlerkorrkturen beinhalten.

2.4. Welche Fehler sich digital korrigieren lassen und welche nicht...

Wenn man verstehen will, was das für die Konstruktion von Objektiven bedeutet, muss man darüber nachdenken, welche Bildfehler sich digital leichter korrigieren lassen und welche nicht (oder nur sehr eingeschränkt).

Tatsächlich ist es heute ganz einfach, Vignetierung digital zu korrigieren, und auch vielen Farbfehler kann man durch digitale Manipulation (zumindest zum Teil) entgegen wirken. Die Fehler, die das Objektiv hier produziert, werden in einem Profil in der Kamera hinterlegt, denn da man ja z.B. weiß, dass ein bestimmtes Objektiv bei einer bestimmten Blende durch die Vignetierung in den Ecken um x% dunkler ist, dann kann man das beim Auslesen des Sensors ja auch mit berücksichtigen.

Ein bisschen komplizierter ist es schon bei den tonnen- oder kissenförmigen Verzeichnungen, denn hier das ausgelesene Sensorbild künstlich an manchen Stellen gestaucht oder gedehnt. Dabei gehen aber entweder einzelne Pixeldaten verloren (weil zwei nebeneinanderliegende Pixel durch die Stauchung zu einem zusammengerechnet werden) oder müssen künstlich hinzugefügt werden (weil durch das Dehnen des Bildes quasi kleine Lücken entstehen, die nachträglich durch errechnete neue Pixel wieder gefüllt werden). Bei den abermillionen Pixeln, aus denen heute die Bilder bestehen, fällt das aber faktisch gar nicht auf.

Anders hingegen ist es mit der "Schärfe" - und hier wird es etwas komplizierter, weil es es einen Unterschied gibt zwischen dem, was man als "objektive Bildschärfe" bezeichnen könnte, und dem, was der Mensch individuell als "scharfes BIld" wahrnimmt. Tatsächlich ist "Bildschärfe" für uns Menschen in der Regel eher ein "wahrgenommener Kontrast im Übergang zwischen verschiedenen Farben oder Helligkeitsstufen". Dieser "Übergangskontrast" lässt sich zwar grundsätzlich auch digital hervorheben, aber dafür muss überhaupt erstmal "Strukturen" und ein "erkannbarer Übergang zwischen diesen" vorhanden sein. Oder ganz banal gesagt: aus dem Bild einer grauen Fläche lässt sich digital kein scharfes Bild errechnen. Je mehr das Objektiv also Strukturen durch seine (schlechte) Konstruktion das Bild "aufweicht", desto schwerer ist es, das Bild nachträglich digital zu schärfen.

Vereinfacht kann man sagen, dass es vier Arten von Bildfehlern gibt (Farbfehler, Randabschattung, Verzeichung, Unschärfe), von denen sich digital einer sehr einfach digital korrigieren lässt (Randabschattung), zwei recht gut, aber mit ein paar Einschränkungen (Farbfehler und Verzeichnung), und einer nur sehr schwer und in Abhängigkeit davon, was das Objektiv überhaupt an Informationen liefert (Schärfe bzw. "Strukturen")

2.5. ... und was das grundsätzlich für die Kontruktion von Objektiven bedeutet

Fassen wir das mal zusammen: Bei einer Filmkamera wird das 1:1 "gespeichert", was aus dem Objektiv rauskommt, bei einer Digitalkamera besteht die Möglichkeit, einzelne Sachen vor dem Speichern schon mal zu korrigieren, aber unter diesen ist "Schärfe" das, was sich am schwersten korrigieren lässt.

Mit anderen Worten: die Konstruktion eines Objektives für eine Filmkamera berücksichtigt alle Fehlerarten, kann aber keinen wirklich komplett korrigieren, ein Objektiv, dass für einen digitalen Sensor kontruiert ist, kann sich vornehmlich auf eine hohe Schärfe konzentrieren und einen Teil der anderen Fehlerkorrektur der Kamera überlassen.

2.6. Ja, alte Objektive sind genau genommen grundsätzlich unschärfer - aber ist das überhaupt ein Problem?

Fazit: Man kann grundsätzlich tatsächlich sagen, dass Objektive, die von Anfang an für die Verwendung digitalen Sensorkameras konstruiert werden, eben auch gezielt auf Schärfe hin optimiert werden. Tatsächlich nehmen wir die tatsächliche "Schärfe" eines Bildes ja doch erst dann wahr, wenn wir am Computer weit in das Bild hineinzoomt - bei Bildschirmen, die mindestens die Größe eines DIN A4-Blatts haben. Es ist also so, als würden wir ein Bild auf 21x29,7 cm ausdrucken und dann noch mal mit einer Lupe betrachten. Früher hatten Fotoabzüge ein Format von 9x13 cm oder 10x15 cm.

Außerdem muss auch die Frage erlaubt sein, was ein gutes Bild ausmacht und ob ein Bild nur deshalb gut ist, weil es scharf ist (Stichwort Bildkomposition). Und alte Objektive sind ja nicht gänzlich unscharf. Moderne Objektive sind lediglich einen Tick schärfer. Nicht mehr 😏.

3. Ein weiterer Aspekt: die Weiterentwicklung der (Glas-)Technik

Genau genommen ist dies ein Punkt, der mit der Frage "Film oder Sensor" eigentlich nichts mehr zu tun hat. Ich werde dazu sicherlich noch mal einen weiteren Blgbeitrag nachschieben. Aber da eben "Film oder Sensor" in gewisser Weise auch "früher oder heute" bedeutet, soll es hier nicht gänzlich unerwähnt bleiben.

3.1. Technische Entwicklung von Glas

Glas ist genau genommen ein Gemisch aus Quarzsanz und verschiedenen anderen Stoffe, das geschmolzen wird. Die Wahl der Zusatzstoffe und deren Dosierung beeinflusst maßgeblich auch die Eigenschaften des Glases, unter anderem ihr Brechungsverhalten. Während man früher die unterschiedlichen Eigenschaften nur durch experimentelles Ausprobieren herausfinden ließen, lassen sich Glaseigenschaften heute mithilfe von Computer aus den unterschiedlichen Komponenten vorausberechnen. Hinzu kommt, dass in den letzten 25 Jahren die Verwendung seltener Erden rasant zugenommen haben und heute viel mehr Stoffe bekannt sind, die sich auch für die Glasproduktion eignen. Auch hat die Entwicklung von Beschichtungen, die sich ebenfalls auf den Strahlenverlauf im Objektiv auswirken können, ebenfalls rasante Sprünge gemacht. So lassen sich heute viel mehr als früher Bildfehler durch den gezielten Einsatz von Korrekturlinsen schon im Objektiv vermeiden. Allein deshalb schon sind - zumindest objektiv betrachtet - moderne Linsen "fehlerfreier" als Altglas-Linsen.

3.2. Sonstige technische Entwicklung in den letzten Jahrzehnten

Bisher ging es allein um die optischen Eigenschaften von Objektiven. Aber diese Linsen müssen auch bewegt werden. Hier hat die Entwicklung seit dem Erscheinen der Minolta 7000 im Jahre 1985 riesige Sprünge gemacht - von anderen Entwicklungen noch gar nicht gesprochen. Neue Objektive profitieren also von bis zu 35 Jahren Erfindungen und Erfahrungen. All dies muss man theoretisch auch mit bedenken, wenn man über die Fotografie mit Altglas nachdenkt.

4. Behauptung: Alte Objektive sind schlechter, weil ihr Autofokus langsamer ist

Auch wenn das mit der Frage "Film oder Sensor" eher weniger zu tun hat: wir reden über alte Objektive, und zumindest kurz sollten wir hier das Thema schon mal ansprechen.

Die Frage ist so eindeutig nicht zu beantworten. Es kommt auf das Objektiv an. Wenn wir über alte Objektive aus der Frühzeit des Autofokus' reden, dann wird man dem kaum widersprechen können. Die ersten Minolta-AF-Objektive hatten (anders als die AF-Objektive heute) keinen eigenen Motor. im Objektiv war lediglich ein Getriebe, während der Motor im Kameragehäuse verbaut war. Das Getriebe im Objektiv wurde über eine Art Kuplung und eine Stange angetrieben, weshalb man solche Objektive auch "Stangenobjektive" nennt. Der Nachteil ist, dass das ein vollkommen mechanischer Antrieb ist, bei dem richtig "Masse" bewegt werden muss. Heutige Motoren arbeiten nach ganz anderen (i.d.R. elektromagnetischen) Prinzipien und sind dadurch deutlich schneller.

ABER: In der Summe ist nicht das Stangengetriebe das Problem. Die Geschwindigkeitsnachteile sind erkennbar, aber nicht wirklich tödlich. Das Problem liegt darin, dass für Objektive mit Stangenantrieb zwingend der LA-EA2- oder der LA-EA4-Adapter verwendet werden müssen, denn nur die haben den zwingend notwendigen Objektivmotor. Das Dumme ist, dass sie auch ein eigenes Autofokus-Modul haben und nicht das der Kamera verwenden. Aber dazu gibt es einen eigenen Blogeintrag.

Drucken