Hvis NASA er så avanceret, hvorfor er deres billeder så i sort/hvid?
Det er et spørgsmål, som jeg i en eller anden form har hørt næsten lige så længe, som jeg har talt med offentligheden om rummet. Og for at være retfærdig er det ikke en frygtelig henvendelse. Når alt kommer til alt, kan smartphonen i min lomme optage noget i retning af ti højopløselige farvebilleder hvert sekund. Den kan automatisk sammensætte dem til et panorama, korrigere deres farve og justere deres skarphed. Alt det for blot et par hundrede dollars, så hvorfor kan vores milliard-dollar robotter ikke gøre det samme?
Svaret, viser det sig, bringer os til skæringspunktet mellem videnskab og naturlovene. Lad os tage et kig på, hvad der skal til for at lave et fantastisk rumbillede ...
Måske er den ene ting, som folk mest undervurderer ved udforskning af rummet, den tid, det tager at udføre en mission. TageCassini, for eksempel. Den ankom til Saturn tilbage i 2004 for en planlagt fire-årig mission. Rejsen til Saturn er dog omkring syv år, hvilket betyder, at rumfartøjet blev opsendt helt tilbage i 1997. Og planlægger det? Instrumentdesign blev udviklet i midten af 1980'erne! Så når du næste gang ser et forbløffende billede af Titan eller ringene her på Universe Today, så husk, at kameraet, der tager disse billeder, bruger teknologi, der er næsten 30 år gammel. Det er ret fantastisk, hvis du spørger mig.
Men allerede tilbage i 1980'erne var teknologien til at skabe farvekameraer blevet udviklet. Missionsdesignere vælger simpelthen ikke at bruge det, og de havde et par gode grunde til at tage den beslutning.
Den mest praktiske årsag er måske, at farvekameraer simpelthen ikke samler så meget lys. Hver 'pixel' på din smartphone-sensor er reelt består af fire individuelle detektorer : en rød, en blå, to grønne (menneskelige øjne er mere følsomme over for grønt!). Kameraets software kombinerer værdierne af disse detektorer til den endelige farveværdi for en given pixel. Men hvad sker der, når en grøn foton rammer en rød detektor? Intet, og deri ligger problemet. Farvesensorer opfanger kun en brøkdel af det indkommende lys; resten er simpelthen tabt information. Det er fint her på Jorden, hvor lyset mere eller mindre udspyder overalt til enhver tid. Men intensiteten af lys følger en af de irriterende omvendte kvadratiske love i fysik, hvilket betyder, at en fordobling af din afstand fra en lyskilde resulterer i, at den kun ser en fjerdedel så lys ud.
Det betyder, at rumfartøjer, der kredser om Jupiter, som er omkring fem gange længere fra Solen end Jorden, kun ser fire procent så meget lys, som vi gør. OgCassinived Saturn ser Solen som hundrede gange svagere end dig eller jeg. For at lave et godt, klart billede skal rumkameraer gøre brug af alt det lille lys, de har til rådighed, hvilket betyder, at de kan klare sig uden de fancy farvepixel.
En mosaik af billeder gennem forskellige filtre på NASAs Solar Dynamics Observatory. Billedkredit: NASA/SDO/Goddard Space Flight Center
Solsystemets mørke er ikke den eneste grund til at undgå at bruge et farvekamera. For astronomen er lys alt. Det er i bund og grund vores eneste værktøj til at forstå store dele af universet, og derfor må vi behandle det omhyggeligt og hente enhver mulig informationsskrot ud fra den. Et rød-blå-grønt farveskema som det, der bruges i de fleste kameraer i dag, er et stumpt værktøj, der deler lys op i netop disse tre kategorier. Det, astronomerne ønsker, er en skalpel, der er i stand til at skelne, hvor rødt, grønt eller blåt lyset er. Men vi kan ikke bygge et kamera, der har røde, orange, gule, grønne, blå og violette pixels - det ville gøre det endnu værre i svagt lys!
I stedet bruger vi filtre til at teste for lys af meget specielle farver, der er videnskabeligt interessante. Nogle farver er så vigtige, at astronomer har givet dem særlige navne; H-alfa, for eksempel, er en strålende rød nuance, der markerer placeringen af brint i hele galaksen. Ved at placere et H-alfa-filter foran kameraet kan vi se præcis, hvor brint er placeret i billedet – nyttigt! Med filtre kan vi virkelig pakke farverne ind. DetHubble-rumteleskopetAdvanced Camera for Surveys, for eksempel, har 38 forskellige filtre med sig til en bred vifte af opgaver. Men hvert billede, der tages, ser stadig gråtoner ud, da vi kun har en smule farveinformation.
På dette tidspunkt siger du sikkert til dig selv 'men, men jeg VED, jeg har set farvebilleder fraHubbleFør!' Faktisk har du sikkert aldrig set en gråtoneHubblebillede, så hvad sker der? Det hele kommer fra det, der kaldes efterbehandling. Ligesom et farvekamera kan kombinere farveinformation fra tre detektorer for at få billedet til at se virkeligt ud, kan astronomer tage tre (eller flere!) billeder gennem forskellige filtre og kombinere dem senere for at lave et farvebillede. Der er to hovedtilgange til at gøre dette, kendt i daglig tale som 'sand farve' og 'falsk farve.'
Et 'ægte farve' billede af overfladen af Jupiters måne Europa set af Galileo-rumfartøjet. Billedkredit: NASA/JPL-Caltech/SETI Institute
Ægte farvebilleder stræber efter at fungere ligesom dit smartphone-kamera. Rumfartøjet tager billeder gennem filtre, der spænder over det synlige spektrum, så resultatet, når det kombineres, ligner det, du ville se med dine egne øjne. Den nyligt udgivneGalileobillede af Europa er et smukt eksempel på dette.
Vores øjne ville aldrig se Krabbetågen, som dette Hubble-billede viser det. Billedkredit: NASA, ESA, J. Hester og A. Loll (Arizona State University)
Falske farvebilleder er ikke begrænset af, hvad vores menneskelige øjne kan se. De tildeler forskellige farver til forskellige funktioner i et billede. Tag for eksempel dette berømte billede af Krabbetågen. Det røde i billedet sporer iltatomer, der har fået fjernet elektroner. Blå sporer normal oxygen og grøn indikerer svovl. Resultatet er et smukt billede, men ikke et, som vi nogensinde kunne håbe på at se for os selv.
Så hvis vi kan lave farvebilleder, hvorfor gør vi det så ikke altid? Igen træder fysikkens love ind for at ødelægge det sjove. For det første bevæger ting i rummet sig konstant, normalt virkelig, virkelig hurtigt. Måske har du set det første farvebillede af kometen 67P/Churyumov-Gerasimenko udgivet for nylig. Det er lidt sløret, er det ikke? Det er fordi bådeRosettarumfartøjet og kometen bevægede sig i den tid, det tog at fange de tre separate billeder. Når de kombineres, passer de ikke perfekt, og billedet sløres. Ikke godt!
Det første farvebillede af kometen 67P/Churyumov-Gerasimenko. Billedkredit: ESA/Rosetta
Men det er den omvendte kvadratiske lov, der er den ultimative udfordring her. Radiobølger, som en form for lys, bliver også hurtigt svagere med afstanden. Når det tager 90 minutter til at sende et enkelt HiRISE-billede tilbage fra Mars Reconnaissance Orbiter tæller hvert skud, og det giver ikke altid mening at bruge tre på det samme mål.
Endelig er billeder, selv farvede, kun en del af rumudforskningspuslespillet. Andre observationer, lige fra måling af støvkornenes hastighed til sammensætningen af gasser, er ikke mindre vigtige for at forstå naturens mysterier. Så næste gang du ser et øjenåbnende billede, skal du ikke have noget imod, at det er i grå nuancer. Forestil dig alt det andet, som mangel på farve lader os lære.