Mit jeder neuen Generation von Objektiven werden diese auch immer schärfer, und immer wieder hört man daher die Empfehlung, keine "alten" Objektive zu nutzen. Natürlich kann man das - verkürzt und mit isoliertem Blick auf analytische Auswertungen - so sagen. Aber ganz so einfach ist es dann doch nicht, denn ob man es glaubt oder nicht: allein die Tatsache, ob ein Objektiv urspünglich für eine Film-Kamera konstruiert wurde oder ob man bei der Konstruktion direkt an eine digitale Kamera mit Sensor gedacht hat, macht schon einen Unterschied aus. Einer der Gründe ist, dass beim Film die Bilder anders entstehen als beim Sensor. Mir hat das sehr geholfen zu verstehen, warum Fotos, die mit Altglas-Objektiven gemacht wurden, irgendwie "anders" aussehen als solche, die mit modernen Linsen entstanden sind. Das muss nicht unbedingt schlecht sein, aber warum das so ist, erkläre ich hier.
Über die Zeit sind mir mehrere Argumente untergekommen, die - angeblich - gegen die Verwendung von alten Objektiven (dem sog. "Altglas") sprechen. Insbesondere hört man immer wieder Alte Objektive sind einfach schlechter, weil sie eine schlechtere Bildqualität liefern als moderne Objektive. Alte Objektive "vignetieren" mehr als moderne. Bei alten Autofokus-Objektive sei deren Geschwindigkeit schlechter als die bei neuen. Das stimmt mit Blick auf die Datenblätter und physikalische Untersuchungen natürlich schon - was irgendwo natürlich auch der Natur der Sache liegt, weil sich die technische Entwicklung an sich weiter entwickelt hat. Aber da dies spannenderweise auch auch damit zu tun hat, dass man früher mit Filmen fotografiert hat. Eigentlich ist der Grund sogar ziemlich banal, aber irgendwie kommt man nicht sofort drauf, und deswegen lohnt es sich, es mal zu erklären.
Alte Objektive sind einfach per se schlechter
Über die Unmöglichkeit, perfekte Objektive zu konstruieren
Ich muss ein wenig ausholen und zunächst die Frage stellen, wie eigentlich ganz grundsätzlich das perfekte Objektiv aussehen müsste (egal ob für Film- oder Sensorfotografie). Nun, ganz einfach: so scharf wie möglich, möglichst wenig sonstige Bildfehler, möglichst lichtstark, möglichst klein und leicht und möglichst bezahlbar. Jede Verbesserung eines Aspekts verschlechtert alle anderen. Ein 100% scharfes Objektiv, dass tatsächlich überhaupt keine keine Bildfehler produziert, wäre weder lichtstark, noch klein, noch bezahlbar. Wollte man dennoch mehr Lichtstärke, müsste das Objektiv noch größer werden und am Ende würde es auch noch teuerer und letztendlich unbezahlbar werden. Grundsätzlich sind also Objektive immer ein Kompromiss, und damit gehören auch Bildfehler immer mehr oder weniger zu jedem Objektiv dazu. Aber was meint man eigentlich, wenn man von Bildfehlern redet?
Was sind Bildfehler und wie werden diese korrigiert?
Jede:r kennt das Plattencover zum Pink Floyds Album "The Dark Side of the Moon" mit dem Lichtstraht, der durch ein Prisma tritt und dabei in die Farben des Regenbogens aufgebrochen wird. Genau das passiert auch in Objektiven, und wenn man diese Lichtbrechung nicht "korrigiert", wirkt sich dies auch auf das Bild aus. Immer wieder findet man das Argument, alte Objektive würden diese Fehler schlechter korrigieren. Aber ist das so? Nun, jede Linse produziert mehr oder weniger solche "Abbildungsfehler". Aber es gibt verschiedene Arten von Fehlern, denen man begegnen kann. Die wichtigsten Fehler sind wohl folgende Farbfehler wie z.B. chromatische Aberrationen an Objekten mit scharfen Ränder und mit hohen Kontrasten im Bild erscheinen diese Ränder nicht scharf, sondern haben schmale bunte Kanten. [Anmerkung: zu Farbfehlern werde ich vielleich noch mal einen eigenen Blogbeitrag nachschieben, habt Geduld 😊) Randabschattungen/VignetierungInsbesondere bei größere Blende erscheinen die Ecken des Bildes abgedunkelt (wir sprachen schon über das Phänomen der Vignetierung) Verzeichnungen aufgrund der Brennweite (im Weitwinkelbereich sieht das Bild ein wenig "tonnenförmig aufgebläht" aus, im Zoombereich ein wenig so als hätte man wie bei einem Kissen ein wenig an den Ecken gezogen), und Unterschiedliche Schärfegrade in der Bildmitte und am Rand, obwohl eigentlich alles auf einer Schärfeebene liegt. Jeder dieser Fehler lässt sich isoliert betrachtet inzwischen sehr gut kompensieren, indem man in ein Objektiv sog. Korrekturlinsen einfügt. Aber wie schon oben gilt auch hier: jede Verbesserung eines Aspekts verschlechtert alle anderen. Natürlich kann man sich bemühen, alle Fehler so gut wie möglich zu korrigieren - aber dann hat man eben wieder das oben beschriebene Problem, dass das Objektiv dann teuer, schwerer und lichtschwächer wird. Also auch hier: Objektive sind immer nur ein Kompromiss. Aber: es macht tatsächlich einen Unterschied, ob es sich um ein Objektiv handelt, das für eine analoge oder für eine digitale Kamera konstruiert ist.
Was Bildfehler bedeuten, wenn man mit Film oder Sensor fotografiert
Nochmal zur Erinnerung: Die Technik des Films ist letztendlich ganz einfach: Photon sorgt für chemische Reaktion. Fertig. Wenn der Film entwickelt wird, wird eigentlich nichts anderes gemacht als das Ergebnis durch chemische Behandlung des Films zu "fixieren", so dass zukünftig Licht eben keine chemischen Reaktionen mehr verursachen. Kurz gesagt: So wie das Licht auf den Film aufgetroffen ist, so ist das Ergebnis dann auch. Zwar kann man bei der Herstellung der Abzüge noch etwas an grundsätzlichen Belichtung korrigieren, aber ansonsten war es. Kurz gesagt: Was reinkommt ist das, was du kriegst. Oder anders gesagt: wenn man mit Film fotografiert, kann die Bildoptimierung auschließlich im Objektiv stattfinden. Die Kamera hat keine Möglichkeit, noch optimierend auf das Bild einzugreifen. Wenn man hingegen mit Sensor fotgrafiert, ist das mitnichten so, denn auch wenn der Begriff "Raw-Format" (raw = engl. für roh) es vorgaukelt, so werden gar nicht die originären Sensordaten gespeichert, sondern die Daten des Sensors werden durch die Software in der Kamera schon das erste Mal bearbeitet, um sie überhaupt "lesbar" zu machen. Das, was auf der Speicherkarte landet, sind gar nicht die originären Sensordaten. Anders herum bedeutet dies aber auch, dass bereits in der Kamera eine erste "digitale Nachbearbeitung" stattfindet - die eben auch schon erste digitale Fehlerkorrkturen beinhalten.
Welche Fehler sich digital korrigieren lassen und welche nicht...
Wenn man verstehen will, was das für die Konstruktion von Objektiven bedeutet, muss man darüber nachdenken, welche Bildfehler sich digital leichter korrigieren lassen und welche nicht (oder nur sehr eingeschränkt). Tatsächlich ist es heute ganz einfach, Vignetierung digital zu korrigieren, und auch vielen Farbfehler kann man durch digitale Manipulation (zumindest zum Teil) entgegen wirken. Die Fehler, die das Objektiv hier produziert, werden in einem Profil in der Kamera hinterlegt, denn da man ja z.B. weiß, dass ein bestimmtes Objektiv bei einer bestimmten Blende durch die Vignetierung in den Ecken um x% dunkler ist, dann kann man das beim Auslesen des Sensors ja auch mit berücksichtigen. Ein bisschen komplizierter ist es schon bei den tonnen- oder kissenförmigen Verzeichnungen, denn hier das ausgelesene Sensorbild künstlich an manchen Stellen gestaucht oder gedehnt. Dabei gehen aber entweder einzelne Pixeldaten verloren (weil zwei nebeneinanderliegende Pixel durch die Stauchung zu einem zusammengerechnet werden) oder müssen künstlich hinzugefügt werden (weil durch das Dehnen des Bildes quasi kleine Lücken entstehen, die nachträglich durch errechnete neue Pixel wieder gefüllt werden). Bei den abermillionen Pixeln, aus denen heute die Bilder bestehen, fällt das aber faktisch gar nicht auf. Anders hingegen ist es mit der "Schärfe" - und hier wird es etwas komplizierter, weil es es einen Unterschied gibt zwischen dem, was man als "objektive Bildschärfe" bezeichnen könnte, und dem, was der Mensch individuell als "scharfes BIld" wahrnimmt. Tatsächlich ist "Bildschärfe" für uns Menschen in der Regel eher ein "wahrgenommener Kontrast im Übergang zwischen verschiedenen Farben oder Helligkeitsstufen". Dieser "Übergangskontrast" lässt sich zwar grundsätzlich auch digital hervorheben, aber dafür muss überhaupt erstmal "Strukturen" und ein "erkannbarer Übergang zwischen diesen" vorhanden sein. Oder ganz banal gesagt: aus dem Bild einer grauen Fläche lässt sich digital kein scharfes Bild errechnen. Je mehr das Objektiv also Strukturen durch seine (schlechte) Konstruktion das Bild "aufweicht", desto schwerer ist es, das Bild nachträglich digital zu schärfen. Vereinfacht kann man sagen, dass es vier Arten von Bildfehlern gibt (Farbfehler, Randabschattung, Verzeichung, Unschärfe), von denen sich digital einer sehr einfach digital korrigieren lässt (Randabschattung), zwei recht gut, aber mit ein paar Einschränkungen (Farbfehler und Verzeichnung), und einer nur sehr schwer und in Abhängigkeit davon, was das Objektiv überhaupt an Informationen liefert (Schärfe bzw. "Strukturen")
... und was das grundsätzlich für die Kontruktion von Objektiven bedeutet
Fassen wir das mal zusammen: Bei einer Filmkamera wird das 1:1 "gespeichert", was aus dem Objektiv rauskommt, es gibt quasi keine Möglichkeiten, noch in der Kamera Korrekturen vorzunehmen. Bei einer Digitalkamera ist das anders. Hier kann man beim Speichern schon mal die eine oder andere Sache digital korrigieren. Z.B. kann man gleich hinterlegen, ob aus dem Bild die objektivbedingte Vignetierung herausgerechnet werden soll. Auch Verzerrungen, die manche (Weitwinkel-)Objekive konstriktionsbedingt haben, kann man schon in der Kamera berücksichtigen. "Schärfe" hingegen ist das, was sich am schwersten korrigieren lässt. Mit anderen Worten: die Konstruktion eines Objektives für eine Filmkamera muss alle Fehlerarten berücksichtigen (weil ich in der Kamera selbst nichts mehr korrigieren kann), wird aber letztendlich keine Fehlerart wirklich komplett korrigieren. Es ist eine "von allem ein bisschen korrigiert"-Konstruktion.
Bei digitalen Objektiven (insb. denen der jüngsten Generation) erleben wir es, dass bestimmte Fehler im Objektiv gar nicht mehr korrigiert werden. Statt dessen gibt man den Kameras ein entsprechendes Profil mit auf den Weg, so dass die Kamera die Fehler digital korrigieren kann. Für die Konstruktion des Objektivs bedeutet das, dass man sich auf bestimmte Abbildungsleistungen (z.B. Schärfe) konzentieren kann. Insofern kann man tatsächlich sagen, dass Objektive, die von Anfang an für die Verwendung digitalen Sensorkameras konstruiert werden, eben auch gezielt auf Schärfe hin optimiert werden.
Andererseits nehmen wir die tatsächliche "Schärfe" eines Bildes erst dann wahr, wenn wir am Computer weit in das Bild hineinzoomt - bei Bildschirmen, die häufigt schon fast die Größe eines DIN A3-Blatts haben. Es ist also so, als würden wir ein Bild auf 21x29,7 cm ausdrucken und dann noch mal mit einer Lupe betrachten. Früher hatten Fotoabzüge ein Format von 9x13 cm oder 10x15 cm - also kaum größer als ein Handydisplay heute. Und mal ganz ehrlich: die meisten Bilder schauen wir uns heute auf dem Handy an. Braucht es da wirklich eine auf DIN A3 optimierte Schärfe?
Außerdem muss auch die Frage erlaubt sein, was ein gutes Bild ausmacht und ob ein Bild nur deshalb gut ist, weil es scharf ist (Stichwort Bildkomposition). Und alte Objektive sind ja nicht gänzlich unscharf. Moderne Objektive sind lediglich einen Tick schärfer. Nicht mehr 😏.
Technische Entwicklung von Glas
Ein weiterer Aspekt: die Weiterentwicklung der (Glas-)Technik Genau genommen ist dies ein Punkt, der mit der Frage "Film oder Sensor" eigentlich nichts mehr zu tun hat. Ich werde dazu sicherlich noch mal einen weiteren Blgbeitrag nachschieben. Aber da eben "Film oder Sensor" in gewisser Weise auch "früher oder heute" bedeutet, soll es hier nicht gänzlich unerwähnt bleiben.
Glas ist genau genommen ein Gemisch aus Quarzsanz und verschiedenen anderen Stoffe, das geschmolzen wird. Die Wahl der Zusatzstoffe und deren Dosierung beeinflusst maßgeblich auch die Eigenschaften des Glases, unter anderem ihr Brechungsverhalten. Während man früher die unterschiedlichen Eigenschaften nur durch experimentelles Ausprobieren herausfinden ließen, lassen sich Glaseigenschaften heute mithilfe von Computer aus den unterschiedlichen Komponenten vorausberechnen. Hinzu kommt, dass in den letzten 25 Jahren die Verwendung seltener Erden rasant zugenommen haben und heute viel mehr Stoffe bekannt sind, die sich auch für die Glasproduktion eignen. Auch hat die Entwicklung von Beschichtungen, die sich ebenfalls auf den Strahlenverlauf im Objektiv auswirken können, ebenfalls rasante Sprünge gemacht. So lassen sich heute viel mehr als früher Bildfehler durch den gezielten Einsatz von Korrekturlinsen schon im Objektiv vermeiden. Allein deshalb schon sind - zumindest objektiv betrachtet - moderne Linsen "fehlerfreier" als Altglas-Linsen.
Sonstige technische Entwicklung in den letzten Jahrzehnten
Bisher ging es allein um die optischen Eigenschaften von Objektiven. Aber diese Linsen müssen auch bewegt werden. Hier hat die Entwicklung seit dem Erscheinen der Minolta 7000 im Jahre 1985 riesige Sprünge gemacht - von anderen Entwicklungen noch gar nicht gesprochen. Neue Objektive profitieren also von bis zu 35 Jahren Erfindungen und Erfahrungen. All dies muss man theoretisch auch mit bedenken, wenn man über die Fotografie mit Altglas nachdenkt.
Alte Objektive vignetieren zu viel
Behauptung: Alte Objektive sind schlechter, weil sie an Digitalkameras mehr "vignetieren" als moderne Objektive Vignetierung meint das Phänomen, dass ein Bild am Rande etwas dunkler erscheint als in der Mitte. Das ist ein Phänomen, das im Prinzip jedes Objektiv betrifft, egal ob neu oder alt. Es ist nur jeweils unterschiedlich ausgeprägt. Insofern ist Vignetierung erst einmal kein Fehler, sondern einfach erstmal nur ein physikalisches Phänomen, das übrigens die modernen spiegellosen Kameras häufig schon gleich selbst im Bildprozess korrigieren. Aber ja, es ist wohl so, dass dies bei älteren Objektiven etwas intensiver zu sein scheint. Wenn man also ältere Objektive verwendet, ist es hilfreich, wenn man dazu auch ein bisschen weiß. Und ja, es hilft auch, wenn man sogar noch einen Schritt zurückgeht und darüber nachdenkt, wie überhaupt ein Bild entsteht.
Technischer Exkurs: Wie aus Licht auf Filmen und Sensoren Bilder entstehen
Um es kurz zu sagen: dem klassischen Film ist es vollkommen egal, aus welcher Richtung das Licht kommt, dem Sensor ist das überhaupt nicht egal. Die etwas längere (aber dennoch vereinfachte) Erklärung dafür sieht wie folgt aus: Ein 35-mm-Film ist eigentlich nichts anderes als ein durchsichtiger Träger, auf die eine dünne lichtempfindliche Schicht wie z.B. Silberhalogenidkristalle (auch "Silberkorn" genannt) aufgetragen ist. Sobald ein Lichtphoton auf ein Molekül trifft, verändert es dauerhaft seine Eigenschaft. Je mehr Licht auf "den Film" auftrifft, desto mehr Silberkörner werden eben auch getroffen und reagieren entsprechend: das Bild wird dunkler. Aus welcher Richtung das Photon dabei gekommen ist, ist vollkommen egal. Der eine oder andere hat auf alten Bildern vielleicht schon einmal gesehen, dass in einer der unteren Ecken ein Datum mit im Bild zu sehen ist. Es gab für viele Filmkameras sogenannte "data backs" oder "Datenrückteile": Abdeckungen der Filmklappe, an der man das Datum einstellen konnte und die dann den Film von hinten belichtet hat (siehe nebenstehendes Bild einer Minolta 7000 mit dem Data Back 70 (Quelle mit näheren Erläuertungen in Englisch). Man sieht: Aus welcher Richtung das Photon kommt, ist dem Film vollkommen egal. Sensoren arbeiten anders: hier löst das auftreffende Photon keine chemische Reaktion aus, sondern der Sensor misst qausi, mit wieviel Energie das Photon auf den jeweiligen Pixel auftrifft und wandelt dieses dann in ein elektisches Signal um.Und im Gegensatz zum Film ist es nicht egal, aus welcher Richtung das Photon auftrifft. Das Ganze kann man sich in etwa so vorstellen: wir lassen eine Kugel 2x mit gleicher Geschwindigkeit auf eine Fichtenholzplatte fallen. Beim ersten Mal halten wir die Holzplatte so, dass die Kugel in einem 90°-Winkel aufprallt, beim zweiten Mal halten wir sie so, dass die Kugel in einem 45°-Winkel aufprallt. In beiden Fällen wird die Kugel eine Delle hinterlassen, aber die Delle des ersten Versuches wird tiefer sein als die des zweiten. Obwohl beide Kugeln gleich schnell waren, hat die erste Kugel mehr Energie an die Holzplatte übertragen. Ähnlich ist es auch beim Sensor: Trifft das Licht-Photon im 90°-Winkel auf, kann es seine Energie am Idealsten auf den Sensor übertragen. Je schräger es auftrifft, desto weniger "belichtet" es also den Sensor bzw. der Sensor brauch für ein gleiches Energiesignal mehr Photonen.
Was das für die Konstruktion von Objektiven bedeutet
Kurz gesagt hat der Unterschied zwischen Film und Sensor tatsächlich zur Folge, das "alte, analoge" Objektive an digitalen Kameras etwas mehr zur Vignetierung neigen, als Objektive, die direkt für die Verwendung an digitalen Objektiven konstruiert wurden. Aber warum ist das so? Der 35-mm-Film (der übrigens so heißt, weil der Filmstreifen 35 mm breit ist) hat ein tatsächliches Aufnahmeformat von 36 mm x 24 mm. Das ergibt etwa eine Diagonale von 43,3 mm. Ein Objektiv, dessen Hinterlinse ausreichend groß wäre, damit alles Licht senkrecht auf den Film fällt, müsste also mindestens einen Durchmesser von eben jenen 43,3 mm haben (besser sogar noch ein bisschen mehr). Ich hab mal grob die Hinterlinse meines Minolta 24 mm/2.8 vermessen. Sie hat einen Durchmesser von etwas mehr als 17mm. Die "Austrittslinse" ist also deutlich kleiner als die Diagonale des 35-mm-Film. Das ist wie gesagt für die Belichtung des Films auch überhaupt kein Problem, solange das Licht überhaupt auf dem Film ankommt. Aber bei einer Sensor-Kamera sieht das schon anders aus. Die Lichtstrahlen (oder genauer: die Lichtphotonen), die am Rand des Sensors auftreffen, treffen eben nicht senkrecht, sondern schräg auf den Sensor auf und geben daher eben auch nicht ihre ganze Energie an den Sensor ab. Es entsteht also der Eindruck, dass das Bild dort etwas dunkler als in der Mitte des Bildes erscheint. Ich habe leider aktuell ein modernes digitales 24 mm-Objektiv zur Hand, aber ich bin mir sicher, dass die Austrittslinse hier deutlich größer wäre.
Ist Vignetierungüberhaupt ein Problem?
Zumindest für mich ist es ein nachrangiges Problem. Zum einen ist die Vignetierung gar nicht so stark, wie man annehmen möchte. Zum zweiten ist Vigentierung ein Phänomen, das abnimmt, je mehr man die Blende schließt. Zum dritten findet sich in jeder halbwegs brauchbaren Fotobearbeitungssoftware die Möglichkeit, Vignetierung zu bearbeiten. Und zum vierten: "it's not a bug, it's a feature". Sehr häufig wird bewusst mit Vignetierung gespielt und diese als stilistisches Mittel verwendet. Es ist wie in vielen anderen Dingen auch: Wenn man das "Problem" kennt, ist es keines mehr. Hinzu kommt, dass bei der Kombination "analoges Objektiv an APS-C-Kamera" dieses Phänomen so gut wie gar nicht auftritt. APS-C-Sensoren haben in der Regel eine Größe von 23,7 mm x 15,6 mm (die von Canon sind etwas kleiner). Die Diagonale beträgt also nur etwa 28,4 mm. Selbst am Rand des Sensors treffen die Photonen also noch relativ senkrecht auf. Wenn man also analoge Objektive verwenden will, so eignen sich dafür APS-C-Kameras perfekt.
Alte Objektive sind einfach zu langsam
Behauptung: Alte Objektive sind schlechter, weil ihr Autofokus langsamer ist Auch wenn das mit der Frage "Film oder Sensor" eher weniger zu tun hat: wir reden über alte Objektive, und zumindest kurz sollten wir hier das Thema schon mal ansprechen. Die Frage ist so eindeutig nicht zu beantworten. Es kommt auf das Objektiv an. Wenn wir über alte Objektive aus der Frühzeit des Autofokus' reden, dann wird man dem kaum widersprechen können. Die ersten Minolta-AF-Objektive hatten (anders als die AF-Objektive heute) keinen eigenen Motor. im Objektiv war lediglich ein Getriebe, während der Motor im Kameragehäuse verbaut war. Das Getriebe im Objektiv wurde über eine Art Kuplung und eine Stange angetrieben, weshalb man solche Objektive auch "Stangenobjektive" nennt. Der Nachteil ist, dass das ein vollkommen mechanischer Antrieb ist, bei dem richtig "Masse" bewegt werden muss. Heutige Motoren arbeiten nach ganz anderen (i.d.R. elektromagnetischen) Prinzipien und sind dadurch deutlich schneller. Im Ergebnis sind die Geschwindigkeitsnachteile also tatsächlich erkennbar. Aber es muss die Frage erlaubt sein, ob man dem fertigen Bild diese langsamere Fokusgeschwindigkeit ansieht.
Ist das nun eigentlich alles überhaupt ein Problem?
Sind diese Fehler überhaupt relevant? Rein rational betrachtet, stimmt dies alles. Alte Objektive sind im direkten Vergleich zu aktuellen natürlich "schlechter" - wenn man die Zahlen und Auswertungen betrachtet. Aber macht sich das in der Praxis bemerkbar? Ich hab da so meine Zweifel. EIn paar Fragen sollte man sich schon dazu stellen, zum Beispiel Sieht man die qualitativen Unterschiede überhaupt, wenn man die Bilder heute eh nur auf dem Handy betrachtet? Ist es in der Portraitfotografie wirklich sinnvoll, Objektive zu verwenden, die so scharf abbilden, dass man gefühlt jede Pore bis zu dessen Boden betrachtet kann und man hinterher in der Bildbearbeitung die Haut doch wieder weicher machen muss? Ist Vignettierung wirklich ein sooo großes Problem, wenn es dann doch gleich automatisch in den Kameras ohne Verluste digital korrigiert wird - und zwar automatisch? Und kann ein scharfes Bild überhaupt ein gutes Bild sein, wenn die Bildkomposition schlecht ist? Und warum greifen ausgerechnet junge Leute heute verstärkt zu alten Point-and-Shot-Kameras oder sogar zu noch älteren analogen Filmkameras? Richtig: sie wollen gerade diesen alten Vintage-Look.
Es gibt also verschiedene Gründe , die Kritik an alten Objektive kritisch zu sehen.