
Wenn die NASA so fortschrittlich ist, warum sind ihre Bilder dann in Schwarzweiß?
Eine Frage, die ich in der einen oder anderen Form fast so lange höre, wie ich mit der Öffentlichkeit über den Weltraum spreche. Und um fair zu sein, es ist keine schreckliche Untersuchung. Immerhin kann das Smartphone in meiner Hosentasche pro Sekunde etwa zehn hochauflösende Farbbilder schießen. Es kann sie automatisch zu einem Panorama zusammenfügen, ihre Farbe korrigieren und ihre Schärfe anpassen. All das für nur ein paar hundert Dollar, warum also können unsere milliardenschweren Roboter nicht dasselbe tun?
Die Antwort, wie sich herausstellt, führt uns an die Schnittstelle von Wissenschaft und Naturgesetzen. Werfen wir einen Blick darauf, was es braucht, um ein großartiges Weltraumbild zu erstellen …
Was die Leute bei der Erforschung des Weltraums vielleicht am meisten unterschätzen, ist die Zeit, die für die Durchführung einer Mission benötigt wird. NehmenCassini, zum Beispiel. Es erreichte Saturn bereits 2004 für eine geplante vierjährige Mission. Die Reise zum Saturn dauert jedoch ungefähr sieben Jahre, was bedeutet, dass die Raumsonde bereits 1997 gestartet wurde. Und die Planung? Instrumentendesigns wurden Mitte der 1980er Jahre entwickelt! Wenn Sie also das nächste Mal ein erstaunliches Bild von Titan oder den Ringen hier bei Universe Today sehen, denken Sie daran, dass die Kamera, die diese Aufnahmen macht, eine Technologie verwendet, die fast 30 Jahre alt ist. Das ist ziemlich erstaunlich, wenn Sie mich fragen.
Aber schon in den 1980er Jahren wurde die Technologie entwickelt, um Farbkameras herzustellen. Missionsdesigner entschieden sich einfach dafür, es nicht zu verwenden, und sie hatten einige gute Gründe für diese Entscheidung.
Der vielleicht praktischste Grund ist, dass Farbkameras einfach nicht so viel Licht sammeln. Jedes „Pixel“ auf Ihrem Smartphone-Sensor ist wirklich aus vier einzelnen Detektoren zusammengesetzt : eins rot, eins blau, zwei grün (menschliche Augen reagieren empfindlicher auf Grün!). Die Software der Kamera kombiniert die Werte dieser Detektoren zum endgültigen Farbwert für ein bestimmtes Pixel. Aber was passiert, wenn ein grünes Photon auf einen roten Detektor trifft? Nichts, und darin liegt das Problem. Farbsensoren sammeln nur einen Bruchteil des einfallenden Lichts; der Rest sind einfach verlorene Informationen. Das ist in Ordnung hier auf der Erde, wo Licht zu jeder Zeit mehr oder weniger überall ausstrahlt. Aber die Intensität des Lichts folgt einem dieser lästigen umgekehrten Quadratgesetze in der Physik, was bedeutet, dass eine Verdoppelung der Entfernung von einer Lichtquelle dazu führt, dass sie nur ein Viertel so hell aussieht.
Das bedeutet, dass Raumschiffe, die den Jupiter umkreisen, der etwa fünfmal weiter von der Sonne entfernt ist als die Erde, nur vier Prozent so viel Licht sehen wie wir. UndCassinibei Saturn sieht die Sonne hundertmal lichtschwächer als Sie oder ich. Um ein gutes, klares Bild zu machen, müssen Weltraumkameras all das wenige Licht nutzen, das ihnen zur Verfügung steht, was bedeutet, dass sie auf diese schicken Farbpixel verzichten müssen.

Ein Mosaik von Bildern durch verschiedene Filter auf dem Solar Dynamics Observatory der NASA. Bildnachweis: NASA/SDO/Goddard Space Flight Center
Die Dunkelheit des Sonnensystems ist nicht der einzige Grund, auf den Einsatz einer Farbkamera zu verzichten. Für den Astronomen ist Licht alles. Es ist im Wesentlichen unser einziges Werkzeug, um weite Teile des Universums zu verstehen, und daher müssen wir es sorgfältig behandeln und alle möglichen Informationen daraus entnehmen. Ein Rot-Blau-Grün-Farbschema, wie es heute in den meisten Kameras verwendet wird, ist ein stumpfes Werkzeug, das Licht in genau diese drei Kategorien aufteilt. Was Astronomen wollen, ist ein Skalpell, das erkennen kann, wie rot, grün oder blau das Licht ist. Aber wir können keine Kamera bauen, die rote, orange, gelbe, grüne, blaue und violette Pixel hat – das würde bei schwachem Licht noch schlimmer werden!
Stattdessen verwenden wir Filter, um Licht in ganz bestimmten Farben zu testen, die wissenschaftlich von Interesse sind. Manche Farben sind so wichtig, dass Astronomen ihnen besondere Namen gegeben haben; H-Alpha zum Beispiel ist ein leuchtender Rotton, der die Position von Wasserstoff in der gesamten Galaxie markiert. Durch das Platzieren eines H-Alpha-Filters vor der Kamera können wir genau sehen, wo sich Wasserstoff im Bild befindet – nützlich! Mit Filtern können wir die Farben richtig einpacken. Diedes Hubble-WeltraumteleskopsAdvanced Camera for Surveys zum Beispiel bringt 38 verschiedene Filter für eine Vielzahl von Aufgaben mit sich. Aber jedes aufgenommene Bild sieht immer noch in Graustufen aus, da wir nur eine Farbinformation haben.
An dieser Stelle sagen Sie sich wahrscheinlich: „Aber ich WEISS, dass ich Farbbilder gesehen habe vonHubbleVor!' Tatsächlich haben Sie wahrscheinlich noch nie eine Graustufe gesehenHubbleBild, also was ist los? Es kommt alles aus der sogenannten Nachbearbeitung. So wie eine Farbkamera die Farbinformationen von drei Detektoren kombinieren kann, um das Bild lebensechter aussehen zu lassen, können Astronomen drei (oder mehr!) Bilder durch verschiedene Filter nehmen und sie später zu einem Farbbild kombinieren. Dafür gibt es zwei Hauptansätze, die umgangssprachlich als „True Color“ und „Falschfarbe“ bezeichnet werden.

Ein „Echtfarben“-Bild der Oberfläche von Jupiters Mond Europa, wie es von der Raumsonde Galileo gesehen wird. Bildnachweis: NASA/JPL-Caltech/SETI Institute
Echtfarbenbilder streben danach, genau wie Ihre Smartphone-Kamera zu funktionieren. Die Raumsonde erfasst Bilder durch Filter, die das sichtbare Spektrum umfassen, sodass das Ergebnis bei der Kombination dem ähnelt, was Sie mit Ihren eigenen Augen sehen würden. Das kürzlich erschieneneGalileiDas Bild von Europa ist ein wunderschönes Beispiel dafür.

Unsere Augen würden den Krebsnebel nie sehen, wie ihn dieses Hubble-Bild zeigt. Bildnachweis: NASA, ESA, J. Hester und A. Loll (Arizona State University)
Falschfarbenbilder werden nicht durch das eingeschränkt, was unser menschliches Auge sehen kann. Sie weisen verschiedenen Merkmalen innerhalb eines Bildes unterschiedliche Farben zu. Nehmen Sie zum Beispiel dieses berühmte Bild des Krebsnebels. Das Rot im Bild zeichnet Sauerstoffatome nach, denen Elektronen abgestreift wurden. Blau zeigt normalen Sauerstoff an und Grün zeigt Schwefel an. Das Ergebnis ist ein wunderschönes Bild, aber keins, von dem wir jemals hoffen könnten, es selbst zu sehen.
Wenn wir also Farbbilder machen können, warum machen wir das nicht immer? Auch hier greifen die Gesetze der Physik ein, um den Spaß zu verderben. Zum einen bewegen sich die Dinge im Weltraum ständig, normalerweise sehr, sehr schnell. Vielleicht haben Sie das erste Farbbild des Kometen 67P/Churyumov-Gerasimenko gesehen, das kürzlich veröffentlicht wurde. Es ist irgendwie verschwommen, nicht wahr? Das liegt daran, dass beideRosettaRaumsonde und Komet bewegten sich in der Zeit, die für die Aufnahme der drei separaten Bilder benötigt wurde. Wenn sie kombiniert werden, sind sie nicht perfekt ausgerichtet und das Bild verschwimmt. Nicht gut!

Das erste Farbbild des Kometen 67P/Churyumov-Gerasimenko. Bildnachweis: ESA/Rosetta
Aber es ist das inverse-quadratische Gesetz, das hier die ultimative Herausforderung ist. Auch Radiowellen als Lichtform werden mit zunehmender Entfernung schnell schwächer. Wenn es dauert 90 Minuten, um ein einzelnes HiRISE-Bild zurückzusenden vom Mars Reconnaissance Orbiter zählt jeder Schuss und es macht nicht immer Sinn, drei für dasselbe Ziel auszugeben.
Schließlich sind Bilder, selbst in Farbe, nur ein Teil des Puzzles der Weltraumforschung. Andere Beobachtungen, von der Messung der Geschwindigkeit von Staubkörnern bis hin zur Zusammensetzung von Gasen, sind nicht weniger wichtig, um die Geheimnisse der Natur zu verstehen. Wenn Sie also das nächste Mal ein augenöffnendes Bild sehen, macht es Ihnen nichts aus, dass es in Grautönen ist. Stellen Sie sich vor, alles andere lässt uns aufgrund des Mangels an Farbe lernen.