UNIDAD DIDÁCTICA ASTROFOTOGRAFÍA

Autores: Juan Carlos Casado / Miquel Serra-Ricart

OBJETIVOS Los objetivos que se pretenden alcanzar en esta Unidad Didáctica son los siguientes:

  • Conocer el proceso global de producción de imágenes así como saber evaluar imágenes tanto desde el punto de vista de su obtención como del procesado.
  • Comprender y aplicar conocimientos de fundamentos imagen y cámaras digitales.
  • Conocer las posibilidades instrumentales y los procedimientos para la realización de astrofotografía como técnica de aplicaciones pedagógicas, documentales e investigadoras.
  • Aprender a planificar una sesión observacional utilizando los recursos disponibles (manuales, software, Internet).
  • Conocer y aplicar técnicas de procesamiento básico de imágenes.

INTRODUCCIÓN En esta Unidad Didáctica se hace una introducción sencilla pero rigurosa y actualizada a la Astrofotografía así como su aplicación y potencial como elemento didáctico y documental. Empleando tan solo una cámara compacta digital y un ordenador doméstico los alumnos están en disposición de recoger una sorprendente variedad de objetos y fenómenos celestes, que junto con las técnicas de captación y procesado ofrecen un amplio campo de recursos educativos. 1 – Astrofotografía La astrofotografía es la parte de la fotografía (1) dedicada a captar los objetos y fenómenos astronómicos. (1)  Etimológicamente «fotografía» significa «dibujado con luz» . La palabra fue acuñada por el astrónomo John Herschell en 1839. Comenzó a emplearse como una técnica observacional destinada a obtener documentos científicos y complementar los datos obtenidos mediante otros procedimientos de observación. La fotografía aplicada a la astronomía (siglo XIX) fue el primer sustituto del ojo humano, hasta entonces único detector en las observaciones astronómicas, incluso desde la invención del telescopio (Galileo, 1609), convirtiéndose en una eficaz herramienta de detección y medición. Pero además de su principal faceta científico- investigadora, la astrofotografía ofrece otros ámbitos de actuación:   Ámbito documental-didáctico. La captación de imágenes y fenómenos celestes, además de su espectacularidad posee un gran interés para ser mostrados al público o con finalidades educativas. Ámbito ilustrativo. Muchas imágenes con motivos astronómicos se utilizan en publicidad, ilustraciones editoriales en prensa y libros, imagen corporativa, así como elementos decorativos. Ámbito artístico. Un espacio para interaccionar la luz con el tiempo, permitiendo la experimentación y la expansión de la creatividad. Las relaciones entre la fotografía y el firmamento demuestran que la creación artística y la ciencia, en ocasiones, tienen influencias mutuas. Numerosos artistas como Lazlo Mohology-Nagy, Man Ray o el catalán Joan Fontcuberta han recurrido al firmamento como temática de parte de su obra.   1.1. Evolución histórica de la Astrofotografía Los antecedentes de la fotografía se encuentran en dos vertientes, que posteriormente se unirían para iniciar el desarrollo de esta nueva técnica: la cámara oscura y el material fotosensible. Aunque los fundamentos de la cámara oscura datan de antes del nacimiento de Cristo, en China, fue el filósofo griego Aristóteles (384 A.C – 322 A.C.) quien construyó la primera cámara oscura2 de la que se tiene constancia: «Se hace pasar la luz a través de un pequeño agujero hecho en un cuarto cerrado por todos sus lados. En la pared opuesta al agujero, se formará la imagen de lo que se encuentre enfrente» (figura 1). Era la precursora de la cámara fotográfica moderna. (2) Llamada también cámara estenopeica o en inglés, pinhole.   funcionamiento de una cámara oscura     Figura 1. Esquema del funcionamiento de una cámara oscura. Gráfico Wikipedia adaptado por J.C. Casado.   En el Renacimiento científicos como Leonardo da Vinci (1452-1519) y artistas como el pintor alemán Alberto Durero (1471-1528) empleaban la cámara oscura para dibujar los objetos que en ella se proyectaban. A partir de ese momento se utilizó como herramienta auxiliar del dibujo y la pintura, extendiéndose rápidamente en Europa. Las primeras lentes para ser utilizadas como objetivos fotográficos se deben al óptico británico John Dollond quien en 1758 diseñó un objetivo de lentes múltiples que eliminaba la aberración cromática (véase Unidad «Fenómenos Atmosféricos»), que producía imágenes rodeadas de bandas coloreadas. Por otra parte, también desde la Antigüedad, se conocían cambios químicos producidos por la exposición a la luz en determinadas sustancias, como la que hacía palidecer los tintes. Pero nadie fue capaz de establecer una relación entre la luz y sustancias químicas, ya que se confundían con los efectos del calor y del aire. No sería hasta 1725 cuando Johann Schulze, un profesor de la universidad alemana de Altdorf, demostró que la luz alteraba las sales de plata. Si bien dio a conocer sus hallazgos, no se pensó en ninguna aplicación práctica, aunque con ello, realmente en esta época ya estaban sentadas las bases ópticas y químicas de la Fotografía. Formalmente la Fotografía comienza en 1837 con la comercialización del Daguerrotipo, sistema inventado por los franceses J. Nicéphore Niepce y Louis Jacques M. Daguerre, si bien fue este último quien lo popularizó y mejoró. Era un proceso lento y laborioso que exigía el uso de placas metálicas cubiertas con yoduro de plata, el componente sensible a la luz o emulsión. Las exposiciones típicas a la luz de día, con cámara oscura, eran de 30 minutos. Tras lo cual se revelaba con vapor de mercurio caliente (que era venenoso) y se lavaba con una solución de sal de cocina caliente. En 1840 Daguerre intentó fotografiar la Luna aconsejado por el astrónomo Jean François Arago, pero fracasó. Sin embargo en ese mismo año el astrónomo norteamericano John W. Draper consiguió las primeras fotografías. Eran imágenes de la Luna obtenidas con exposiciones de 20 minutos mediante un telescopio reflector de 15 centímetros de abertura y 2,5 metros de distancia focal. Paralelamente, en 1841, se aumentó la luminosidad y definición de las imágenes con nuevos tipos de objetivos fotográficos. El óptico y matemático austríaco Jozef M. Petzval diseñó unas lentes a f/3.7, 20 veces más rápidas que las existentes, que se utilizaron para astrofotografía de gran campo hasta bien entrado el siglo XX. La poca sensibilidad del daguerrotipo no obstante permitía fotografiar los cuerpos celestes más luminosos. Así el físico G.A. Majocchi fotografió por primera vez un eclipse de Sol el 8 de Julio 1842. Los primeros intentos para fotografiar estrellas fueron en 1850, cuando en Harvard (EEUU), William C. Bond y su hijo George junto con J.A. Whipple, un fotógrafo, consiguieron captar la estrella Vega, la más brillante de la constelación de la Lira, con una exposición de 100 segundos. A pesar de este logro, las posibilidades pronto alcanzaron sus límites, ya que únicamente se llegó a fotografiar estrellas de 2a magnitud, mientras que el ojo humano es capaz de detectar estrellas mucho más débiles. La causa era debida a que el daguerrotipo tenía tan solo 1/10.000 de la sensibilidad de las modernas películas. La primera aplicación científica de la nueva fotografía llega en 1860. Durante el eclipse total de Sol del 18 de Julio, el británico Warren de la Rue y el jesuita italiano Pietro Secchi, ambos desde España, pero independientemente, logran demostrar que las protuberancias visibles durante la fase total forman parte del Sol y no de la Luna, como se creía hasta entonces. En 1864 Lewis Rutherford por primera vez fotografía estrellas más débiles que las visibles a simple vista con un nuevo procedimiento al colodión o «placas húmedas», que exigía que la placa estuviera húmeda durante la exposición, por lo que éstas quedaban limitadas a unos pocos minutos. No obstante, este sistema era 10 veces más sensible que los mejores daguerrotipos y captaba suficiente número de estrellas para realizar estudios de sus posiciones con exactitud. Un nuevo paso fue el invento de las placas secas con emulsión de bromuro de plata en 1871, por el físico y fotógrafo aficionado inglés Richard Maddox. La Fotografía así tomaba ya la forma actual. La sensibilidad del nuevo material aumentaba espectacularmente, permitiendo fot
ografías en condiciones de luz de día de 1/25 segundo, haciendo necesario el uso del obturador. Otro avance importante en la fotografía fue el descubrimiento en 1873 por el químico alemán Hermann Vogel de la sensibilización de la emulsión a mayores longitudes de onda, hasta ahora restringidas a la zona azulada del espectro visible, ampliando el rango de captación de objetos y escenas. En 1874 W. Abney utiliza la fotografía por primera vez para captar el paso del planeta Venus por el Sol, un fenómeno astronómico extremadamente infrecuente. Abney propone otras aplicaciones de la fotografía a problemas astronómicos y produce un monumental atlas del espectro visible solar. Henry Draper fotografía en 1880 por primera vez un objeto situado fuera del Sistema Solar, la nebulosa de Orión, empleando un telescopio refractor y 51 minutos de exposición. En 1883 Ainslie Common es el primero en utilizar un telescopio reflector para fotografiar objetos nebulosos. El resultado demuestra que la óptica de espejos es, en diversos aspectos, superior a la de lentes. Su fotografía de la nebulosa de Orión, que mostraba tenues nebulosidades, es un clásico en la historia de la Fotografía y la Astronomía (figura 2). Además marcó una nueva era, pues fue la primera vez que la placa fotográfica conducía a descubrir algo no observable directamente con el ojo humano. Screen shot 2013-05-06 at 1.52.57 PM       Figura 2. Nebulosa de Orión fotografiada en 1883 por A. Common con 68 minutos de exposición. Placa de vidrio a la gelatina – bromuro de plata.   Durante el Congreso Internacional de Astronomía celebrado en París en 1887 se propuso la elaboración de un mapa fotográfico de todo el cielo, una «Carte du Ciel», que debía llegar hasta estrellas de magnitud 14, con un catálogo hasta la magnitud 11 (figura 3). Este trabajo monumental sería realizado mediante una cooperación internacional de 18 observatorios, entre ellos el Observatorio de San Fernando (Cádiz). El cielo completo se cubriría con 22.000 placas. Se estimaba que el mapa celeste contendría unos 50 millones de estrellas. Este trabajo colosal nunca fue completado por el fallo de varios observatorios en cumplir la tarea asignada, si bien supuso una revolución para la cartografía celeste. Screen shot 2013-05-06 at 2.04.31 PM       Figura 3. Una fotografía de la Carte du Ciel, correspondiente a la constelación de los Genmelos, obtenida por M.M. Henry.       Otro hito destacable fue la publicación en 1888 por John L.E. Dreyer, del catálogo fotográfico de nebulosas y otros cuerpos de cielo profundo llamado «New General Catalogue»(NGC) en el que se presentan 7.849 objetos, todos los visibles con los telescopios de la época. Este catálogo constituye aún en nuestros días una referencia y una guía imprescindibles. En 1899 Keeler con un telescopio reflector instalado en el Observatorio de Lick en California, estimaba que se podían registrar con él unos 120.000 objetos. En 1904 Perrine calculó su capacidad de detección en 400.000 objetos y Herber Curtis (1916) elevó estas cifras a 1.000.000. Gracias al trabajo de dos investigadores de Kodak, J.H. Webb y C.H. Evans, se propone en 1930 procedimientos para reducir uno de los mayores problemas en la fotografía de larga exposición: el fallo de reciprocidad (falta de linealidad de la película). La óptica también progresa y el óptico estoniano Bernard Schmidt diseña en 1930 un nuevo tipo de telescopio, de uso exclusivamente fotográfico, denominado «cámara Schmidt». Este instrumento permite fotografiar grandes áreas del cielo con exposiciones cortas, eliminando aberraciones ópticas. En 1934, gracias a los esfuerzos del Dr. Mees y su equipo de colaboradores, se obtiene una variedad de placas con diferentes sensibilidades espectrales y bajo fallo de reciprocidad, llamadas espectroscópicas. En 1940 I.S. Bowen y L.T. Clark describen técnicas de hipersensibilización para exposiciones largas, que permiten aumentar espectacularmente la sensibilidad en largas exposiciones. Mediante una cámara Schmidt y con fotografías tomadas entre 1950 y 1957 se elabora un atlas del cielo, el «Palomar Observatory Sky Survey» (POSS I), que aún hoy en día constituye una referencia y obra de consulta para los astrónomos. Posteriormente se obtuvo con nuevas fotografías el atlas POSS II. Actualmente estas placas se encuentran digitalizadas y son públicamente accesibles. El año 1969 supone el comienzo de una nueva era de la Astrofotografía, con el advenimiento del sensor CCD, elaborado por dos ingenieros, Willard Boyle y George Smith, de los laboratorios Bell (EEUU). Comenzó a utilizarse como elemento de captación de imagen en los observatorios a comienzos de la década de los 1980 y actualmente ha reemplazado a la película fotográfica, incluyendo el telescopio espacial Hubble. El sensor CCD y otros detectores electrónicos sustituyen asimismo a la película en las actuales cámaras digitales fotográficas y de vídeo. Todos estos avances fotográficos se ven potenciados por la aparición del tratamiento digital de la imagen, iniciado en los años 1970 y que actualmente resulta accesible a cualquier persona con un ordenador doméstico y programas de procesado de imagen.     2 – El proceso astrofotográfico Para obtener una imagen del firmamento se ha de completar un proceso secuencial de producción, que va desde la emisión de la luz del sujeto hasta la obtención de la copia final. Este proceso se puede dividir en cuatro etapas o apartados relacionados entre sí, los cuales exigen un conocimiento y tratamiento individualizado para alcanzar los mejores resultados: a) Sujeto: La fuente de luz que formará la imagen final. El sujeto celeste, cualitativamente, puede ser muy variado (objetos, fenómenos, situaciones) y su rango de luminosidades y tamaños angulares muy extenso (desde el Sol hasta débiles galaxias y desde todo el cielo hasta pequeños objetos). Como elemento perturbador o modificador se encuentra la atmósfera terrestre, que puede alterar en gran medida los resultados. El sujeto, desde el punto de vista de su tratamiento fotográfico, se puede clasificar en los siguientes tipos (figura 4):

  • OBJETOS. Cuando se trata de cuerpos o conjuntos de cuerpos. Por ejemplo: el Sol, estrellas, nebulosas.

 

  • FENÓMENOS. Acontecimientosrecurrentes que ocurren con mayor o menor frecuencia, con un desarrollo en el tiempo no muy largo y que implican a uno o más objetos. Por ejemplo: eclipses, ocultaciones, auroras polares, sucesos atmosféricos.

 

  • SITUACIONES Y EFECTOS. Las situaciones son disposiciones de objetos en un determinado tiempo, como por ejemplo, conjunciones de planetas. Los efectos se producen como el resultado en el tiempo de movimientos de objetos. Por ejemplo, el recorrido del Sol a lo largo del día.

Screen shot 2013-05-06 at 2.09.16 PM Figura 4. Un objeto, la galaxia de Andrómeda (M31). Un fenómeno, un eclipse parcial de Sol. Un efecto, el recorrido del Sol en el solsticio de invierno.Fotos J.C. Casado © www.starryearth.com Por sus características, el sujeto celeste posee una enorme variación de:

  • Luminosidad: Desde el Sol a débiles galaxias. Lo que exige utilizar desde filtros especiales muy oscuros con exposiciones muy cortas para el Sol, a emplear telescopios y horas de exposición para captar galaxias (figura 5).
  • Tamaño: Desde fenómenos que pueden abarcar todo el hemisferio de cielo visible, como las auroras polares, hasta pequeñas galaxias apenas distinguibles con el telescopio.

Screen shot 2013-05-06 at 2.10.30 PM             Figura 5. El brillo de los objetos astronómicos se expresa mediante la magnitud aparente, una escala en la que cada unidad es una diferencia de 2,5 veces respecto a la siguiente. Los cuerpos más luminosos tienen magnitudes aparentes negativas     Por medio de estas características, los objetos celestes pueden clasificarse:

  • Grandes y luminosos (Sol, Luna)
  • Grandes y débiles (nebulosas)
  • Pequeños y luminosos (planetas).
  • Pequeños y débiles (galaxias).

De una manera general, los objetos astronómicos presentan una serie de características particulares:

  • Se encuentran en movimiento aparente constante, pequeño pero sensible (aproximadamente 15º / hora). Este movimiento es debido a la rotación terrestre y exige para fotografiar objetos débiles, que requieren exposiciones largas, un sistema de seguimiento (montura ecuatorial).

Entre los objetos celestes naturales que poseen un movimiento propio detectable del general del cielo están lo siguientes visibles a simple vista:

  • Luna. Su movimiento es de 1⁄2º por hora (su propio diámetro aparente), apreciable a simple vista en horas, aunque con el telescopio se distingue en unos minutos.
  • Estrellas fugaces o meteoros. De segundos o fracciones de segundos de duración.
  • Cometas(figura6).Dependede su distancia real a la Tierra. Normalmente y a simple vista se necesitan días para detectar su cambio de posición.

Screen shot 2013-05-06 at 2.13.56 PM   Figura 6. El cometa McNaught (enero 2007) fotografiado con una cámara compacta digital Pentax Optio 555 acoplada a un telescopio de 200 mm de abertura con ocular de 25 mm. 8 segundos, ISO 400. Foto Tim Napier-Munn.

  • Planetas. En los más cercanos o interiores, como Mercurio se percibe en días. En otros lejanos es necesario semanas.
  • Asteroides. Solamente se distingue el más brillante, Vesta, siendo necesario días o semanas para detectar su movimiento entre el fondo estelar. En cambio hay pequeños cuerpos llamados NEO y PHA (véase Unidad Didáctica Objetos Variables), que pueden pasar cerca de la Tierra (incluso existir la posibilidad de un choque), y verse su movimiento en unas horas, si bien son excepcionales.
  • En general poseen un tamaño aparente pequeño. La medición del tamaño angular de los objetos astronómicos se realiza en grados y sus submúltiplos (véase Unidad Didáctica El cielo nocturno).
  • Poseen colores que muestra la película o capta el sensor, aunque no se ven (figura 7)·

Screen shot 2013-05-06 at 2.20.46 PM   Figura 7. Las estrellas de la constelación de Orión muestran vivos colores al fotografiarse. Para visualizar mejor las tonalidades se desenfocó gradualmente la imagen durante la exposición. Foto J.C. Casado © www.starryearth.com

  • Están situados en el infinito fotográfico.
  • Poseen una amplia gama de luminosidades, que van desde el Sol hasta estrellas y objetos de cielo profundo débiles, invisibles a simple vista. Los tiempos de exposición correctos para fotografiar los distintos objetos, fenómenos o situaciones se obtienen empíricamente o mediante tablas fotográficas, ya que el exposímetro o fotómetro no sirve en la mayoría de los casos.

En el Apartado 5 se tratarán los diferentes objetos individualmente para fotografiarlos lo mejor posible con el material disponible. b) Instrumental y técnicas: El material óptico, mecánico, electrónico e informático necesario para captar el sujeto, así como los procedimientos para su registro. Los procedimientos comprenden tres etapas:

  1. Antes de la toma. Selección del lugar, material a utilizar así como la planificación para su realización.
  2.  Durante la toma. Estados atmosféricos generales, locales, así como condicionantes ópticos, mecánicos y electrónicos.
  3. Posterior a la toma: el preprocesado y procesado de imagen.

c) Material sensible de captación de la imagen: Puede ser fotoquímico (películas fotográficas, en desuso) o digital (sensores CCD y CMOS principalmente). En esta Unidad nos centraremos en el uso y posibilidades de las cámaras digitales compactas. d) Procesado: Fotográfico (revelado, positivado) y digital (procesado de imagen, composiciones, etc.). Dedicaremos un apartado al procesado básico de las imágenes y software disponible.   3 – Fundamentos de Imagen Es necesario conocer algunos conceptos básicos cuando se trata el tema de la imagen en general, tanto desde el punto de vista de la óptica como del sistema de adquisición de imágenes (cámara) o de visualización (monitor, papel, proyector). Resolución espacial. La resolución espacial cuantifica la cantidad de detalle que es discernible en una imagen. La resolución se aplica tanto a la óptica como a la imagen obtenida. La resolución espacial se mide de diferentes maneras (3.) La más empleada es contabilizar cuantas líneas son visibles o resueltas por unidad de espacio, por ejemplo, líneas por milímetro (l/mm). Frecuentemente se utiliza la noción de líneas pares por milímetro (lp/ mm), en lugar de líneas, ya que una línea par contiene dos líneas oscuras contiguas separadas por un espacio o línea blanca. Así una resolución de 20 l/mm contiene 10 líneas oscuras alternando con 10 líneas blancas, ó 10 lp/mm. La calidad de los objetivos fotográficos se cifra habitualmente en lp/ mm. (3) Un procedimiento más completo para medir la capacidad de resolución de la óptica en diferentes situaciones de contraste es mediante un gráfico denominado MTF (Función de Transmisión de Modulación). La curva así obtenida muestra el tamaño de los detalles (frecuencia) en relación al contraste de la imagen (modulación).   Debe tenerse en cuenta que al captar una determinada imagen hay factores que alteran la resolución teórica de un objetivo, como la turbulencia, las vibraciones, la precisión del enfoque, el tipo de sensor y el contraste (a menor contraste en una escena u objeto, menor resolución). Veremos en el Apartado 4 (cámaras digitales) conceptos referentes a la imagen digital. Rango dinámico. La diferencia entre las zonas más claras y las más oscuras de una escena o una imagen. En un detector (ojo, sensor electrónico) representa la diferencia entre la máxima y mínima cantidad de luz que el detector puede captar con detalle (por encima del negro absoluto y por debajo de la saturación). A mayor rango dinámico, mayor riqueza en los tonos y colores. El rango dinámico debe tenerse en cuenta a lo largo de la obtención de una imagen:

  1.  Una determinada escena natural tiene un rango dinámico establecido por el brillo de los objetos que componen dicha escena.
  2.  Un detector posee un rango dinámico que determina la cantidad de rango dinámico contenido en la escena que puede captar con detalle.
  3.  Los dispositivos de salida (monitor, proyector, impresión), poseen un rango dinámico que delimita la cantidad de tonalidades que pueden reproducir.

El rango dinámico se puede expresar como una relación o en forma de bits (potencias de 2). Por ejemplo, un rango dinámico de 1.000:1 ó de 10 bits aproximadamente (ya que 210 = 1.024), significa un dispositivo de captación de imagen capaz de distinguir una diferencia de 1.000 tonos intermedios entre el blanco y el negro. En fotografía se indica en forma de diafragmas o números f, de manera que cada diafragma supone un factor de 2 en diferencia respecto al anterior o el siguiente. En el ejemplo anterior, un rango dinámico de 1.000:1 serían 10 diafragmas. En el cuadro inferior se muestran rangos dinámicos de diferentes escenas y dispositivos en la captación de imágenes: Screen shot 2013-05-06 at 2.23.50 PM En escenas iluminadas por el sol (sin sombras absolutas ni reflejos especulares), el rango dinámico suele estar comprendido entre 6-8 diafragmas. En escenas en general, el rango dinámico puede abarcar más de 20 diafragmas. No existe un sistema de captación convencional de imagen (película o sensor) que pueda registrar todo esta amplitud dinámica, por lo que habrán tonos que se perderán, a menos que se utilicen técnicas HDRI (véase Apartado 5.3). Resolución tonal. Este término se aplica a imágenes digitales, en las que la información está cuantificada. El medio digital ha de realizar una conversión a valores discretos para representar la señal analógica. La resolución tonal describe el número de pasos o niveles de brillo en los que se divide el rango dinámico captado cuando se digitaliza. Se expresa con el término «profundidad de bit». El bit (contracción de «Binary digIT») es la unidad mínima de información y corresponde a un valor 1 ó 0. Así, la base numérica para todos los sistemas digitales, incluidos los ordenadores, es 2. La profundidad de bit se representa en notación exponencial bajo la forma de 2n, siendo el exponente n la profundidad del bit. Por ejemplo, una profundidad de 3 bits son 23 (2 x 2 x 2) = 8 tonos diferentes. De manera que a mayor profundidad de bit, mayor riqueza tonal, como se puede ver en el siguiente cuadro: Screen shot 2013-05-06 at 2.24.42 PM   Para la correcta representación visual de una imagen, la resolución tonal ha de alcanzar un cierto valor mínimo, de lo contrario aparecerán efectos de bandas entre diferentes tonos. Este valor es de unos 8 bits, lo que representa 256 tonos o pasos entre el negro y el blanco (figura 8). Para imágenes HDR se pueden alcanzar los 32 bits.   Screen shot 2013-05-06 at 2.25.16 PM     Figura 8. Resolución tonal de 3 bits y 8 bits. Gráfico J.C. Casado.       No debe confundirse la resolución tonal y el rango dinámico, ya que son conceptos diferentes. Una escena con un determinado rango dinámico se cuantifica en pasos o escalones de tonos, cuyo número es especificado por la profundidad de bit. De manera que una mayor profundidad de bit no significa un mayor rango dinámico. Puede haber una imagen con un elevado rango dinámico y baja profundidad de bit y otra imagen con un escaso rango dinámico y alta profundidad de bit. Cuando las imágenes son en color (normalmente RGB), cada uno de los canales tiene su profundidad de bit. Así, por ejemplo, en una imagen RGB de 24 bits, significa que cada canal es de 8 bits y al combinarse produce 24 bits (3 canales x 8 bits = 24 bits).   Las imágenes en color de 48 bits, como las proporcionadas por las CCDs astronómicas o las cámaras réflex digitales (DSLR), son las adecuadas para trabajos de calidad en el color, ya que distinguen tonalidades allí donde con una profundidad menor no se captan. Además, se ha de tener en cuenta que al realizar el procesado de la imagen se van perdiendo tonos. Sin embargo se debe pensar que al trabajar a 16 bits/canal, los archivos de imagen incrementan notablemente su tamaño por lo que es necesario disponer de ordenadores potentes con suficiente memoria RAM.   3.1. Obtención del color El color que vemos es una percepción que realiza el cerebro de las diferentes radiaciones de luz visible que capta el ojo. La forma en que se ve el color es debida a la propia fuente de luz y sus posibles alteraciones como la reflexión, refracción, transmisión, etc (véase Unidad Didáctica Fenómenos Atmosféricos). Por ejemplo, vemos un coche de color rojo iluminado por el Sol porque absorbe todas las longitudes de onda de la luz visible, excepto las correspondientes a la gama de los 610 y los 700 nm (color «rojo»), que es reflejada. Para captar una reproducción del color de una escena determinada se emplean básicamente dos métodos: 1- Síntesis aditiva. Para ello se utilizan tres colores llamados primarios: rojo (R), verde (G) y azul (B), ya que no hace falta tener todas las longitudes de onda del espectro visible para obtener los colores. Mezclando luz de cada color primario se producen otros  colores, llamados «colores secundarios», así como el blanco que es la combinación de los tres primarios: Screen shot 2013-05-06 at 2.26.29 PM Screen shot 2013-05-06 at 2.27.03 PM

Figura 9. Síntesis aditiva.

    El negro es la ausencia de luz. Mezclando en diferentes proporciones los colores primarios se puede obtener cualquier color. Este método es conocido como tricromía RGB o modelo RGB y es empleado para obtener el color en dispositivos que emitan luz, como los monitores (figura 9).   2- Síntesis sustractiva. Mezclando los colores secundarios cyan (C), magenta (M) y amarillo (Y), se obtienen los colores primarios. El negro resulta de la combinación de los tres secundarios: Screen shot 2013-05-06 at 2.27.52 PM Este sistema se utiliza para obtener el color en impresiones, por ejemplo, en impresoras, pues las tintas y pigmentos reflejan ciertas longitudes de onda correspondientes a determinados colores. Como mezclando los colores secundarios con tintas no se obtiene un negro absoluto, sino una especie de marrón oscuro, se añade una tinta negra, que se le denomina «K» (de «blacK»). Así este método se le conoce por CMYK o de cuatricromía (figura 10).   Screen shot 2013-05-06 at 2.29.52 PM

Figura 10. Síntesis sustractiva.

Modelos de color. Un modelo de color es un método matemático para definir los colores mediante secuencias de números o letras (normalmente tres o cuatro valores o componentes por color). Los primeros modelos de color eran simplemente sistemas para nombrar los colores según los colores de la Naturaleza, como naranja, ocre, añil, esmeralda, etc. Actualmente aún existen sistemas de definición de colores, siendo el más conocido el Pantone (Pantone Matching System). Fue creado en 1963 buscando un estándar para la comunicación y la reproducción de colores en las artes gráficas. Se basa en la edición de una serie de catálogos sobre  diversos sustratos (superficies a imprimir), que suministran una codificación estandarizada mediante un número de referencia y un color específico (por ejemplo, el Pantone 347 corresponde a un tipo de verde). Además de los mencionados sistemas RGB y CMYK, existen otros modelos de color que se utilizan actualmente:

  •  El modelo HSV (ó HSB). Fue desarrollado en 1915 por Albert H. Munsell y se basa en tres propiedades del color: tono (Hue), saturación (Saturation) y brillo (Value). Estos parámetros permiten recrear un atlas tridimensional de los colores (figura 11).

Screen shot 2013-05-06 at 2.32.17 PMFigura 11. Una de las representaciones más habituales para el modelo de color HSV es un cono en el que H (tono) varía circularmente en torno al eje principal del cono, S (saturación) se incrementa radialmente y V (brillo) aumenta verticalmente hacia arriba. Gráfico Wikipedia.   El tono es la característica que nos permite distinguir las diferentes tonalidades, rojas, verdes, amarillas, etc, y es lo que comúnmente llamamos color. Se encuentra determinado por la longitud de onda dominante de la luz. La saturación indica lo puro o vívido que es un color. Van desde los neutrales como el negro, blanco o gris hasta los colores espectrales (totalmente saturados). Los colores de baja saturación son llamados «pasteles». El valor hace referencia a la intensidad de la luz. Cuando se trata de una fuente de luz se utiliza la expresión B (de «Brightness», modelo HSB) para indicar el brillo.

  • El espacio de color HSL (ó HSI), posee la componente L denominada «luminancia» o «luminosidad». Es similar al HSV, pero difiere de éste en el concepto de «saturación» (S) y de «luminancia»(L) respecto al «brillo» (B).

 

  • El modelo CIE XYZ .Fue uno del os modelos de color en ser definidos matemáticamente (también conocido por CIE 1931). Formulado por la Comisión Internacional de Iluminación (Commission Internationale d’Eclairage, CIE) en 1931. Está basado en la percepción de la visión humana a los colores. A partir de los datos obtenidos se definió la respuesta del color a «un observador estándar». Como cada persona tiene una respuesta ligeramente diferente a los colores, se produce una cierta arbitrariedad en las curvas de sensibilidad a los colores que se obtuvieron.

Debido al hecho de que el ojo humano tiene tres tipos de células sensibles a diferentes longitudes de onda del  espectro visible, se pueden representar los colores como una mezcla de los tres colores primarios. Estos tres primarios se expresan en forma numérica o bien en un sistema de coordenadas para formar el llamado «diagrama de cromaticidad». Como resulta complejo representar un espacio tridimensional de colores (coordenadas XYZ), se realiza una transformación a dos dimensiones (valores de tono y saturación), mediante la expresión x+y+z=1, de manera que si son conocidos dos valores el tercero puede ser calculado fácilmente. Así se elabora el diagrama de cromaticidad, que es una representación bidimensional del espacio tridimensional de colores. El diagrama representa todos los colores que puede percibir el ojo humano (figura 12).   Screen shot 2013-05-06 at 2.33.33 PM   Figura 12. Diagrama de cromaticidad CIE 1931. Sobre la línea exterior de la curva de colores se indica la longitud de onda en nanómetros. Los colores mostrados dependen del espacio de color del dispositivo con que se visionen, por lo que la posición exacta de un determinado color puede variar.Gráfico Wikipedia.

  • El modelo CIELAB (también notado como CIE L*a*b*). Es el modelo de color más completo para describir los colores visibles por el ojo humano. Fue desarrollado por la Comisión Internacional de Iluminación (CIE). Los tres parámetros o canales (L,a,b) representan la luminancia (o luminosidad) del color (L*, L*=0 indica negro y L*=100 significa blanco), la posición entre el magenta y el verde (a*, valores negativos indican verde mientras que positivos significan magenta) y la posición entre el amarillo y el azul (b*, valores negativos señalan azul y los positivos amarillo) (figura 13).

Screen shot 2013-05-06 at 2.34.37 PM

Figura 13. Representación del modelo de color Lab. Gráfico J.C. Casado

El modelo de color Lab ha sido creado para ser utilizado como referencia, ya que matemáticamente es lineal, mientras que la visión humana no lo es. Sin embargo ofrece un espacio de color independiente y es el modelo de color básico utilizado por el software Adobe Photoshop, el estándar en la edición de imágenes. Como el modelo Lab posee tres componentes, solo puede ser representado correctamente en un espacio de tres dimensiones. Espacio de color. Si el modelo de color está asociado a una descripción precisa de cómo deben ser interpretados los componentes (por ejemplo, las condiciones de visión), el conjunto de colores resultante se denomina «espacio de color». En un determinado modelo de color, pueden existir varios espacios de color. Por ejemplo el modelo de color RGB, dispone, entre otros, de los espacios de color Adobe RGB (1998), sRGB o Apple RGB. Screen shot 2013-05-06 at 2.36.54 PM       Figura 14. Comparación de los espacios de color Adobe RGB 1998 y sRGB, con el modelo de color CIELab. Gráfico Wikipedia, adaptado por J.C. Casado.   Un espacio de color produce un subespacio de todos los colores que son definidos en un modelo de color, como por ejemplo el CIE XYZ que comprende todo el rango visual humano. Los espacios de color poseen tamaños diferentes, de manera que algunos colores que se muestran en un espacio grande no resultan visibles en un espacio de color menor. En la figura 14 se comparan dos espacios de color muy utilizados, con el modelo de color CIE L*a*b, que representa toda la gama cromática que capta el ojo humano. El espacio Adobe RGB (1998) es un espacio de color de tamaño mediano que produce buenos resultados para la impresión. El espacio sRGB es menor y es representativo de los monitores y televisores.   4 – Cámaras digitales Las cámaras digitales han supuesto una auténtica revolución en el mundo de la Imagen, habiendo reemplazado actualmente a las cámaras analógicas en todos los ámbitos de la fotografía. Al ser una tecnología basada en los avances y descubrimientos electrónicos e informáticos, su velocidad de desarrollo es mucho más rápida que la de la fotografía química o analógica. Los antecedentes de la fotografía digital se han de buscar en los sensores CCD, que comenzaron a utilizarse en los observatorios astronómicos profesionales a principios de los años 1980, aunque la primera tecnología de captación de imagen que utilizó un sistema electrónico fue la televisión (años 1930). 4.1. Tipos de cámaras digitales Existen dos principios de captura de las imágenes digitales:

  • Cámaras con un sensor matricial en color, en las que se pueden diferenciar cuatro categorías:

1) Cámaras tipo «compacta», de objetivo no intercambiable. 2) Réflex (DSLR) para aficionados. 3) Réflex para profesionales (formatos 24×36 y mayores) 4) Respaldos digitales para cámaras de medio y gran formato.

  • Dispositivos de barrido. para grandes formatos y sujetos estáticos. Utilizados sobre todo en fotografía profesional de estudio (aunque van siendo reemplazados por respaldos matriciales) y trabajos de reproducción.

En esta Unidad Didáctica nos centraremos en el grupo 1), sus posibilidades y aplicaciones en la Astrofotografía.   4.2. Funcionamiento En las cámaras digitales el material sensible a la luz es un sensor electrónico que capta mucho más eficientemente la luz que la película fotográfica (de 10 a 20 veces más). Además no tiene fallo de reciprocidad (problemas de no linealidad), por lo que su sensibilidad en larga exposición es extraordinaria comparada con la de la película (aunque a mayor tiempo de exposición se genera más ruido electrónico de origen térmico). Si a esto se añade la visualización inmediata de la imagen y su naturaleza digital, lista para procesarse, supone una gran ventaja respecto a las cámaras analógicas. Las cámaras digitales poseen unos componentes generales comunes:

  • Sensor. El sensor o material sensible a la luz es un circuito integrado en el que todos sus elementos están implantados en una base de silicio (figura 15). La cara anterior (la que se expone a la luz) dispone de una ventana de vidrio óptico transparente a la  luz visible y que actúa como filtro a las radiaciones infrarrojas a las que son sensibles todos los sensores.

Screen shot 2013-05-06 at 2.38.37 PM       Figura 15. Representación esquemática de un sensor para la formación de imagen digital. Gráfico J.C. Casado.   También dispone de un filtro de paso bajo para evitar el efecto de muaré (ver más abajo en este mismo apartado «Artefactos de la imagen digital»). Esta ventana delimita la zona de captación de imagen, formada por una matriz de millones de células o píxeles, que están dispuestas en filas y columnas (figura 16). La resolución del sensor se expresa por el número de píxeles totales. Por ejemplo, 3.072 x 2.048 píxeles = 6.291.456 píxeles, ó 6,3 megapíxeles (MP) efectivos. Un cierto número de píxeles se encuentran formando un marco entorno a la zona de captación. Screen shot 2013-05-06 at 2.41.06 PM

Figura 16. El carácter digital de una imagen se evidencia al amplificarla. A la derecha se muestra el pixelado de la zona indicada. Imagen J.C. Casado.

Sirven de referencia para el nivel de negro y juntamente con los píxeles de la zona de imagen (píxeles efectivos) definen el número total de píxeles. Normalmente los píxeles son cuadrados y forman una red ortogonal. Sin embargo son posibles otras estructuras, con formas no cuadradas de píxeles y diferentes disposiciones de la red o matriz de píxeles. La sensibilidad del sensor o su capacidad para absorber los fotones incidentes de luz y convertirlos en fotoelectrones depende de las leyes de la física cuántica. Teóricamente, en el espectro visible, cada fotón que incida en un píxel genera un electrón, es decir, la eficiencia cuántica (EC) sería del 100 %. Pero en la práctica la EC de un sensor siempre es menor debido principalmente a que no toda la superficie del píxel se utiliza para captar luz (4) y que los sensores tienen peor rendimiento en las longitudes de onda corta del espectro visible (violeta- azul). (4) El porcentaje entre la superficie útil del píxel y la total se denomina Relación de Abertura (en inglés, Fill Factor) y determina el porcentaje máximo de fotones que pueden ser convertidos en señal de imagen.   El formato de la imagen digital depende únicamente del número de píxeles efectivos, sin tener en cuenta su tamaño. Un sensor pequeño puede captar imágenes que contengan el mismo número de píxeles que un sensor más grande. Sin embargo un sensor más grande (mayor área de píxel) ofrece mejores resultados, como menos ruido y mayor sensibilidad (figura 17). La capacidad de resolución de los sensores es comparable a la de las mejores películas fotográficas comerciales. Para hallarla se puede utilizar la expresión (5): Screen shot 2013-05-06 at 2.42.51 PM donde p es el lado del píxel (en milímetros) y R la resolución expresada en líneas pares por milímetro.   (5) Si no se conoce el tamaño del píxel, la resolución se puede averiguar mediante las dimensiones en píxeles de la imagen y la longitud del sensor (en milímetros). Por ejemplo, una cámara proporciona una imagen de lado mayor de 3.072 píxeles y 22,7 mm de longitud mayor en el sensor. La resolución será: 3.072 /22,7 = 135,3 píxeles/mm, o 67,7 líneas pares por milímetro.   Screen shot 2013-05-06 at 2.46.10 PMFigura 17. En estas imágenes se puede ver la diferencia entre un sensor pequeño y otro de mayor formato. Arriba, escena captada con una cámara compacta Nikon Coolpix 990. Abajo, con una DSLR Canon 300D. En ambos casos la iluminación que recibieron los sensores fue exactamente la misma, exposición 8 segundos, diafragma f/5.6, ISO 400, con una temperatura ambiente de 21º C. Se puede observar la menor sensibilidad de la cámara compacta (imagen más oscura) y el aumento considerable del ruido térmico, visible en la amplificación como puntos de color. Imágenes J.C. Casado.   El formato es la relación entre la anchura y la altura de la imagen. En las cámaras tipo compacta se utiliza normalmente el formato 4:3, proporcionales a los televisores clásicos y asimismo utilizado en ciertas cámaras analógicas. En las DSLR se mantiene la relación 3:2 proveniente del formato 24 x 36, que se ha convertido en un estándar. Los sensores actuales de las cámaras digitales pueden ser de tipo CCD (dispositivo de carga acoplada) o CMOS (semiconductor de óxido metálico complementario). Ambos emplean como principio básico para la obtención de la imagen el efecto fotoeléctrico (descubierto por Albert Einstein y por el que recibió el premio Nobel en 1921), en el cual la incidencia de luz sobre un cierto metal produce una intensidad de corriente eléctrica directamente proporcional a la intensidad de ésta. Esta corriente eléctrica posteriormente puede medirse y registrarse. Los CCD fueron los primeros sensores que se desarrollaron para captar imágenes y su principal dificultad reside en su elevado coste de producción (aproximadamente 3 veces más que el CMOS), aunque su calidad de imagen -al menos teóricamente- es superior. En un sensor CCD la carga generada por los píxeles es arrastrada hacia los bordes del sensor para ser convertida una corriente eléctrica que posteriormente será medida. Posteriormente se desarrolló la tecnología CMOS, empleada en multitud de aplicaciones, produciéndose un rápido avance en su mejora tecnológica y reducción de costes. En un sensor CMOS la carga de cada píxel se lee individualmente sin ser arrastrada (mayor velocidad de transferencia de datos) y dada su capacidad de integración se le puede colocar al chip los sistemas complementarios de conversión y lectura, haciéndolos más fáciles y baratos de construir. Además actualmente el nivel de ruido electrónico (de origen térmico) generado en estos chips es muy bajo, así como su consumo de energía. Los píxeles del sensor registran únicamente intensidad de luz (son sensibles a todo el espectro visible). El sistema más habitual para captar el color consiste en revestir el sensor con un mosaico transparente de colores rojo, verde y azul (matriz de Bayer), a partir de los cuales es posible producir todos los demás. De esta manera la resolución del color equivale a una tercera parte de la resolución de la luminancia, lo que se recompone mediante un proceso de interpolación por píxeles contiguos. Como se ve en la figura 18, la distribución de los filtros de color no es homogénea, sino que para proporcionar una mayor correspondencia con la visión humana (más sensible al verde- amarillo) suele haber el doble de filtros verdes que rojos y azules.   Screen shot 2013-05-06 at 2.47.47 PM    Figura 18. Una matriz de Bayer utilizada para obtener el color en cámaras digitales. Gráfico Wikipedia.   Otro sistema para adquirir el color es el Foveon, semejante a las capas de las películas en color. Se basa en el hecho de que el silicio del chip es transparente y se absorben colores distintos a diferentes niveles. Así para cada píxel hay tres fotodiodos apilados en vertical, de manera que cada uno recoge información de los tres colores básicos (azul, verde y rojo) (figura 19). En los sensores dedicados a cámaras  compactas, en que los píxeles son más pequeños y con menor Relación de Abertura, se utiliza una red de microlentes sobre la zona de imagen del sensor, de manera que cada microlente concentra la luz incidente sobre la zona fotosensible del píxel, aumentando la sensibilidad de un 25 a un 40%.   figure19Figura 19. El sensor Foveon es distinto en la forma de captar el color, ya que recoge la radiación luminosa mediante tres chips apilados sensibles respectivamente al rojo, verde y azul. Esto quiere decir que, en lugar de limitarse a una componente de color, cada elemento del sensor puede resolver todo un color suprimiendo la interpolación de los datos de color que realiza la matriz de Bayer en otros sensores. Imagen © Foveon.

  • Amplificador. La señal que sale del sensor se dirige al amplificador mediante unos canales de transferencia. Este componente tiene que ser rápido (para realizar la lectura de la imagen y prepararse para la siguiente) y debe generar poco ruido, lo que es determinante en la calidad y rendimiento de la cámara.

 

  • Conversor Analógico-Digital (A/D). La señal amplificada se convierte en valores numéricos (datos digitales) para ser tratada posteriormente.

 

  • Procesador. La imagen captada por el sensor se procesa de diferentes maneras: obtención del color e imagen, ajustes de usuario, compresión y reducción de ruido. No se debe pensar en que una cámara con pocos megapíxeles es inferior. Si la cámara está bien diseñada (combinación sensor-procesador) permitirá obtener imágenes superiores a cámaras de más megapíxeles.

 

  • El firmware es el conjunto de programas que incorpora la cámara para realizar las diferentes funciones, una especie de sistema operativo propio de cada cámara. El firmware se puede actualizar, añadiendo nuevas funcionalidades, a medida que el fabricante lanza nuevas versiones, que pueden descargarse desde su sitio web. Se puede consultar la versión de firmware desde la ventana de Menú de la cámara.

 

  • Sistema de almacenamiento. Los datos se transfieren a la tarjeta de memoria o directamente al disco duro de un ordenador (si la cámara está conectada al mismo). Como es lógico, las imágenes de más píxeles demandan más cantidad de memoria, así como las que se encuentran sin comprimir. Si se va a realizar gran cantidad de imágenes grandes sin comprimir es necesario proveerse de tarjetas de gran capacidad o transferirlas (si es posible) a un disco duro. La velocidad de lectura de las tarjetas influye asimismo en la rapidez del proceso de captación de las imágenes.

4.3. Formatos de archivo de imagen Una vez obtenida la imagen se guarda en la memoria de la cámara o en un ordenador como un archivo de imagen determinado. Este formato debe seleccionarse previamente a la toma según la necesidad o finalidad de la misma. En las cámaras de tipo compacto el formato suele ser único (normalmente JPEG), aunque algunos modelos avanzados permiten el Raw.

  • Formato RAW (del inglés, «crudo»). Es el que proviene de los datos del sensor «en bruto», sin ningún tipo de compresión ni tratamiento. Ocupa bastante espacio de memoria, pero es el mejor para su posterior edición, porque conserva intacta toda la información original. De esta manera se aprovecha, por ejemplo, todo el potencial del rango dinámico (ver más abajo). Podemos entender el formato RAW como el «negativo digital» mientras que otros formatos como TIFF o JPEG serían las fotografías ya positivadas donde el procesador de la cámara actuaría como un laboratorio de  revelado digital.

Posteriormente puede transformarse a otros formatos, mediante programas generales o propios del fabricante de la cámara. Uno de los mejores conversores (o reveladores Raw) gratuitos es Raw Therapee. Adobe Camera Raw es otro conversor que viene incluido en el software Photoshop y Lightroom. UFRaw (http://ufraw.sourceforge.net) es una interface para Windows del excelente revelador de código abierto dcraw (http://www.cybercom.net/~dcoffin/dcraw/). Entre los comerciales destacamos Capture One Pro (http://www.phaseone.com). La mayor desventaja del formato RAW es que no existe un estándar, de manera que cada fabricante utiliza su propia especificación. Adobe ha propuesto un formato que unifique todos los RAW llamado DNG (Digital NeGative). Se puede encontrar más información y conversores de 200 formatos RAW de cámaras a DNG en www.adobe.com/products/dng.

  • Formato TIFF (Tagged Image File Format). Es el estándar en la industria de las artes gráficas. Permite una compresión sin pérdida, siendo semejante en este aspecto al anterior aunque en este formato la cámara ya ha realizado ciertos ajustes de la imagen (equilibrio de blancos, color, corrección gamma,…). El formato TIFF soporta diferentes tipos de imágenes, desde en blanco y negro binarias hasta en color RGB con 24 bits por canal y color CMYK de16 bits por canal, admitiendo capas. Su tamaño puede ser considerable.

 

  • Formato JPEG (Joint Photographic Experts Group). Es el más habitual y común a todas las cámaras digitales. Se realiza una compresión con una pérdida de calidad que se puede seleccionar. A mayor compresión menor calidad (sobre todo en los detalles finos) con menor tamaño de archivo y viceversa.

4.4. Conceptos de imagen digital La imagen digital utiliza determinados conceptos y términos, cuyo conocimiento es necesario para una comprensión adecuada del proceso general de obtención de imágenes. Cantidad de píxeles y calidad de imagen. El número de píxeles de una cámara digital es un factor determinante en la calidad final de las imágenes obtenidas. Aparte de otras consideraciones técnicas (como la calidad del chip, el circuito electrónico y software interno asociado) a mayor número de píxeles, mejor resultado, lo que establecerá asimismo la máxima ampliación de la copia impresa final. Una imagen en calidad fotográfica se imprime a una resolución de 300 ppp (puntos por pulgada6), aunque con 200 ppp los resultados son buenos aún. Supongamos que tenemos una cámara digital de 4 megapíxeles, ¿qué ampliación máxima podremos realizar con calidad fotográfica? La cámara proporciona una imagen de 1.600 x 2.500  píxeles. En calidad fotográfica, cada pulgada de imagen (2,54 cm) está formada por 300 puntos o píxeles de imagen. Luego la ampliación máxima será de 14 cm x 21 cm, que en formato estandarizado quedará en 15 cm x 20 cm (estos pequeños ajustes ya los realizan los laboratorios fotográficos comerciales).   Ruido. El ruido guarda cierto paralelismo con el grano de la película fotográfica. A mayor sensibilidad (ISO más alto en una cámara digital) mayor ruido en la imagen digital. En fotografía digital existen diferentes métodos para reducirlo, que veremos más adelante. El ruido se puede describir como artefactos o errores que alteran la estructura espacial de la imagen (véase Unidad Didáctica Observaciones Astronómicas webcam y CCD). Existen diferentes tipos de ruido, que en una cámara digital se pueden dividir en dos bloques: Ruido de captura. Debido a la luz que incide en el sensor. Es producido por la naturaleza aleatoria de los fotones y los electrones del sensor (es la raíz cuadrada del número de fotones que capta el sensor). En las imágenes digitales aparece como puntos oscuros, brillantes o de color. Es más aparente en zonas uniformes poco iluminadas que en áreas de luz. Ruido de lectura. Se produce por el comportamiento del sensor y la forma en que la cámara procesa la señal. Las causas son: Amplificación. Cuanto más potente y rápido sea el amplificador se genera más ruido. Temperatura del sensor (ruido térmico). El ruido aumenta notablemente con la temperatura del sensor. Por lo tanto rebajando su temperatura se reduce. Cuantificación. Fluctuaciones aleatorias introducidas en la conversión analógica- digital. Exposición larga/alta sensibilidad. El tiempo de exposición y los ajustes de sensibilidad elevados aumentan el ruido. Este es el ruido mejor visible porque es fácilmente comparable con otras imágenes tomadas con la misma cámara. Es propio de cada cámara y mejor visible en condiciones de luz escasa, ya que produce un patrón de ruido fijo, por lo que se puede minimizar fácilmente. – Rango dinámico (ver Apartado 3 «Fundamentos de Imagen»). Uno de los principales retos de las cámaras digitales es obtener un rango dinámico elevado (igual o más que la película fotográfica). Cuanto más grande es el tamaño del píxel, es más sensible y posee más rango dinámico, sin embargo disminuye la resolución del sensor, por lo que se debe buscar un compromiso. Hay una diferencia importante entre la película (y de manera semejante la visión) y el sensor en su comportamiento en la captación de una escena. La película posee una respuesta que se denomina «curva característica». Existe una zona central que es lineal (igual que el sensor), que corresponde a los tonos medios de una escena. Aquí cada aumento de la exposición supone un incremento proporcional en la imagen. Sin embargo, en los extremos inferior izquierda (sombras) y superior derecha (luces) se pierde la linealidad. Lo que indica que en estas zonas la película  tiene más rango dinámico que el sensor (sobre todo en la zona de luces), el cual ofrece una respuesta lineal en todo el intervalo (figura 20). f20 Figura 20. Comportamiento de la película y del sensor frente a la exposición (luminancia). La diferencia entre película (curva roja) y sensor electrónico (curva negra) a la hora de captar la luz se evidencia en los extremos de sus curvas. Tanto en las sombras (zona inferior) como, sobre todo, en las luces (zona superior) la película capta menos luz al incrementar la luminancia de la escena, preservando más detalles en ambas zonas.   Una posible solución es la adoptada por la empresa Fuji. En el sensor, además de cada píxel convencional, existe otro secundario de menor tamaño y menos sensible, que registra el detalle de la zona de luces cuando el principal se aproxima a la saturación. Los datos de ambos píxeles se combinan en el procesador de la cámara. De esta manera el rango dinámico se amplía unas 4 veces. – Histograma. Un histograma es una representación gráfica del contenido de los píxeles de una imagen, expresado en un gráfico de barras (figura 21). Resulta una de las herramientas más útiles para entender y optimizar una imagen digital. Muchas cámaras ofrecen la opción de visualizar el histograma de una imagen, sin el cual pasarían desapercibidos detalles que no se observarían directamente. En algunas se indica la sobreexposición (píxeles saturados o de valor 255, con píxeles de 8 bits) mediante zonas de imagen que parpadean (recordemos que los sensores son sensibles a la saturación).   f21     Figura 21. El histograma representa en un gráfico de barras (mitad) la cantidad de píxeles contenidos en una imagen (arriba), desde el 0 (negro) hasta el 255 (blanco), con 254 tonos de grises intermedios (8 bits). En la práctica el histograma se muestra como un gráfico continuo (abajo) para no producir confusiones con espacios en blanco causados por pérdidas de tonos. Foto J.C. Casado.   Los valores de los píxeles de la imagen se clasifican en un escala estándar de 8 bits (o 256 tonos), que van desde el negro (valor 0, a la izquierda) hasta el blanco (valor 255, a la derecha). El brillo de los píxeles se establece en una escala horizontal o eje X y el número de píxeles de un tono concreto se indica en un eje vertical Y. La altura de cada «barra» indica la cantidad relativa de píxeles para un determinado brillo (o tono). El histograma se representa con cada barra pegada a la contigua, sin espacio entre ella, para distinguirlo de situaciones donde no hay  ciertos tonos. Una fotografía convencional correctamente expuesta muestra una curva suave de distribución en el histograma, con picos en el centro y descensos a ambos lados. Estos descensos casi tocan los bordes, sin estar pegados a ellos. A continuación presentamos diferentes histogramas de escenas convencionales tomadas en diferentes condiciones (figura 22).   f22Figura 22. a, imagen correcta. b, imagen sobreexpuesta. c, imagen subexpuesta. d, imagen de alto contraste (el rango dinámico de la escena es mayor que el del sensor). e, imagen de bajo contraste (los píxeles se concentran en la zona me
dia del histograma). f, imagen modificada por procesamiento. Pérdida de tonos que producen un «efecto peine» en el histograma. Fotos J.C. Casado.
  Se debe tener en cuenta que esta distribución o histograma puede cambiar radicalmente en  fotografía de naturaleza o del firmamento, pero siempre respetando la regla de que no se alcancen los bordes del histograma, lo que indicaría una incorrecta exposición (figura 23). Además del histograma general o RGB, se puede ver por separado cada canal de color.   f23   Figura 23.Imagen celeste. En el histograma hay una concentración de píxeles en la zona de sombras, pero sin recortes y un descenso suave a la zona de luces. La imagen recoge la Vía Láctea austral, destacando el planeta Marte como la brillante «estrella» central. La sombra inferior es el telescopio sobre el cual estaba montada la cámara para aprovechar su seguimiento ecuatorial. Foto J.C. Casado.     – Balance de blancos. El color de la luz varía y repercute en la fotografía. La temperatura de color (ver Unidad Didáctica Fenómenos Atmosféricos) determina la coloración de una escena (de rojiza a azulada). Habitualmente lo que se busca es una iluminación «blanca» o neutra, sin dominancias de color. Las cámaras digitales pueden realizar este ajuste automática o manualmente (sobre todo en las DSLR). El método manual o preajuste consiste en fotografiar una superficie neutra, como una hoja de papel blanco. El procesador de la cámara guarda esa información y la aplica a imágenes posteriores. También se puede ajustar el balance de blancos a situaciones ya preestablecidas en el menú de opciones de la cámara (fuente incandescente, fluorescente, etc).   – Gestión del color. La precisión o gestión del color es el sistema empleado para asegurar una correcta correspondencia con los colores del motivo. Además permite vincular todos los dispositivos del ciclo de obtención de la imagen, desde la cámara hasta el monitor o la impresora. La gestión del color permite realizar una descripción del modo en que cada dispositivo interpreta y reproduce el color. Estas descripciones de la gestión del color se denominan perfiles y cumplen las normas ICC (International Color Consortium). Normalmente se adjunta un perfil genérico de la cámara al archivo de imagen y las aplicaciones (como Photoshop) lo interpretan. El menú de la cámara (normalmente en las DSLR) dispone de una opción para el espacio de color (o «modo de color»). Habitualmente se puede elegir entre Adobe RGB y sRGB, siendo mejor el primero, ya que captará más colores, al poseer una gama cromática más extensa (ver apartado 3.1, «Obtención del color»). – Interpolación. La interpolación es un método de procesado que se utiliza para aumentar el número de píxeles de una imagen digital. Algunas cámaras digitales emplean la interpolación para obtener una imagen mayor que la que capta el sensor o crear un zoom digital. Cualquier programa de procesado de imagen utiliza diferentes procedimientos de interpolación, algunos de los cuales emplean sofisticados algoritmos para aumentar la imagen sin introducir artefactos. A pesar de todo, la interpolación produce peores resultados que una imagen originalmente mayor.   4.5. Artefactos. Los artefactos son una serie de alteraciones en la imagen digital producidos por el sensor, la óptica y el procesado. Algunos de los más habituales son: Aliasing. Debido a la naturaleza cuadrada de los píxeles, las imágenes aparecen con bordes serrados visibles en líneas diagonales y contornos. Es más evidente en cámaras de menos píxeles. La cámara puede suavizarlo con técnicas de antialiasing. Si se aumenta la nitidez de la imagen se evidencia más el aliasing. Aberración cromática. Aparece como halos violetas o azulados alrededor, sobre todo, de contornos luminosos. Es debida a la incapacidad de un sistema óptico de lentes para enfocar luz de diferentes longitudes de onda en el mismo punto. Ciertos objetivos combinados con cámaras digitales pueden producir de manera más acusada este artefacto de imagen. Blooming (del inglés, «derrame»). Cuando el píxel de un sensor se satura por exceso de luz, la carga producida por fotones adicionales puede desbordarse y saturar píxeles adyacentes, sobreexponiendo zonas contiguas de la imagen. En estas áreas se pierde el detalle, al saturarse los valores de los píxeles. Muchas cámaras digitales indican directamente la saturación (ver «histograma»). El blooming también puede producir aureolas púrpuras. Compresión JPEG. Como hemos visto más arriba en «Formatos de imagen», este tipo de archivo no resulta el más indicado por su compresión 54con pérdida de información (aunque con compresión mínima la pérdida es escasa). Sin embargo es común y único a muchas cámaras de tipo compacta. La compresión JPEG actúa según dos directrices: 1) Produce una reorganización de la imagen según la información de color (crominancia) y la de detalle (luminancia). Como nuestra visión es más sensible al detalle que al color, la mayor compresión se produce en la crominancia. 2) Clasifica el detalle de la imagen desde los de menor hasta los de mayor escala, eliminando los más finos, ya que nuestros ojos aprecian mejor los detalles grandes que los pequeños. Los artefactos JPEG se visualizan como bloques pixelados (típicamente de 8×8 píxeles) que degradan la calidad de la imagen haciendo desaparecer los finos detalles originales (figura 24).   f24Figura 24. Pixelización de la imagen en bloques de 8×8 píxeles por una excesiva compresión JPEG. Imagen J.C. Casado.   Si la cámara solo dispone de formato JPEG debe utilizarse la calidad más alta (menor compresión). Una vez se disponga de la imagen original, debe guardarse para su edición en otro formato sin pérdida (como TIFF), ya que si no es así, cada vez que se archive en formato JPEG (incluso a máxima calidad) experimentará una pérdida paulatina de la calidad. Halos (o contornos negativos). Aparecen como unas bandas claras u oscuras que contornean las siluetas y perfiles de la imagen, con una anchura de uno o varios píxeles. Se produce sobre todo por sobreprocesos en la definición de la imagen (técnicas de enfoque). Muaré (o Moiré). Se visualiza como bandas paralelas multicolores que forman dibujos oscilantes. Se produce en escenas con detalles repetitivos cuya resolución excede a la de la cámara (figura 25). A veces el proceso interno de la cámara crea artefactos «laberinto», visibles como trazos cortos verticales y horizontales, claros y oscuros, que recuerdan a los laberintos de un videojuego. El sensor lleva un filtro de paso banda para paliar el muaré, pero a veces se puede producir de todas formas.     f25   Figura 25. Artefacto de muaré visible como diversas bandas paralelas coloreadas debido al tramado del recubrimiento de la fachada del edificio, no resuelto por la resolución de la cámara. Foto Johann H. Addicks, Wikipedia.     Para evitarlo o disminuirlo se puede intentar cambiar el ángulo de la cámara, fotografiar con una cámara de más megapíxeles, cambiar la distancia focal o procesarlo con software. Al visualizar una im
agen por debajo del 100% de su tamaño también se pueden producir efectos de muaré. Puntos claros y oscuros. Debidos a defectos en píxeles del sensor. Normalmente son mínimos y se pueden corregir fácilmente en una fase posterior a la obtención de la imagen.     5 – Cámaras compactas digitales y accesorios Existe una enorme variedad de estas cámaras, la más abundante de todo el mercado. La característica común a todas ellas es la imposibilidad de retirar el objetivo del cuerpo de la cámara. La mayoría también incorporan como sensor el CCD. La diversidad de calidades es muy amplia y se puede establecer una clasificación:

  • Cámaras incorporadas en dispositivos portátiles, como telefonía móvil, tablets, etc. Habitualmente solo disponen de ajustes elementales (iluminación, modos de exposición básicos – necesitan buena luz-, zoom (normalmente digital interpolado), con bajas resoluciones de imagen y enfoque fijo. Sin embargo la evolución de esta tecnología es muy rápida y ya son corrientes las cámaras de varios megapíxeles en estos dispositivos con una cierta sofisticación. De todas maneras más que una auténtica cámara se debe contar como un recurso para captar imágenes cuando no tenemos a mano una cámara dedicada y su campo de aplicación se reduce a escenas y objetos brillantes, aunque en el futuro esta situación puede cambiar (figura 26).

f26     Figura 26. Fotografía de la Luna obtenida con la cámara VGA (640 x 480 píxeles) de un teléfono móvil, sostenida junto a un ocular Baader Eudiascopic de 35 mm. de focal. Telescopio Schmidt- Cassegrain de 406 mm. de abertura f/10, exposición auto. Foto J.C.Casado

  • Cámaras de pequeñas dimensiones, semejantes al tamaño de un paquete de cigarrillos. Todavía se pueden encontrar algunas con focal fija, aunque ya prácticamente todas incorporan un pequeño zoom óptico (además del digital). Aunque la cantidad de MP va aumentando paulatinamente, sin embargo la mayoría no ofrecen un control manual de la imagen.

 

  • Cámaras medianas. Es el sector más amplio y con una extensa gama de calidades y funcionalidades. Se pueden encontrar desde cámaras sencillas automáticas, hasta otras con un control manual. También los MP pueden variar mucho, aunque se debe tener en cuenta -como hemos visto más arriba- que más MP no significa forzosamente mejores imágenes. Ciertas cámaras incorporan estabilizador de imagen, lo que encarece el aparato y no tiene utilidad práctica para este tipo de fotografía. La mayoría de este grupo de compactas solo permiten generar archivos JPEG, aunque existen modelos que también producen archivos Raw.
  • Algunas son del tipo «cuerpo partido», en que la óptica y el cuerpo de la cámara se pueden orientar por separado. Entre éstas se encuentran en el mercado de ocasión las que ya son unos «clásicos», las Nikon Coolpix 990, 995 y 4500 (de 3 a 4 MP). Ofrecen control manual sobre la imagen, fácil adaptación a oculares de telescopios (para fotografía afocal) y exposiciones largas (hasta 1 minuto en las primeras y 5 minutos en la segunda), con máxima calidad de imagen (formato TIFF) (figura 27).

Sin título-1 Figura 27. Nikon Coolpix 995. Cámara de 3,34 megapíxeles con girode objetivo. Permite modo de exposición manual (hasta 1 minuto en modo «B») y formato de imagen TIFF. Utiliza tarjetas tipo Compact Flash I ó II). Descatalogada pero buscada en el mercado de ocasión. Foto Digital Photography Review.

  • Cámaras grandes (tambiénconocidas como «prosumer» o «cámaras puente»). Su aspecto es semejante al de una DSLR (incluso se les puede confundir con una DSLR en un primer momento), aunque su objetivo es fijo. Tienen un buen visor óptico, parecido a las DSLR y su zoom óptico es amplio (alrededor de x10 ó x15). Los precios son equivalentes al de las DSLR de gama básica, así que para un uso en astrofotografía es más recomendable decidirse por una DSLR.

En esta Unidad nos centraremos en las posibilidades y utilización de cámaras de tipo mediano, de presupuesto moderado (~ 200 euros). A diferencia de las DSLR en muchas de estas cámaras no se indica en las especificaciones el tamaño del sensor, aunque se puede calcular aproximadamente. Veámoslo con un ejemplo: Supongamos que la cámara tiene un objetivo zoom de 7 a 21 mm (zoom óptico de 3X), equivalente en formato de 35 mm (formato 24 mm x 36 mm) a 35-105 mm (esta información ya se proporciona), y la resolución máxima de la imagen es de 2.048 x 1.536 píxeles. El coeficiente de conversión (C f ) de la distancia  focal será: 1   Como el coeficiente es 5, la dimensión horizontal o mayor (H) de la zona de imagen del sensor es 5 veces menor que la equivalente en formato de 35 mm. (36 mm.): 2 La resolución máxima (2.048 x 1.536 píxeles), indica que se trata de un sensor de formato 4:3, por lo que la dimensión vertical o menor (V) será:   4   Así, es posible calcular aproximadamente el tamaño del píxel (1 mm = 1.000 micras):

7.200 micras/2.048 píxeles (ó 5.400 micras/ 1.536 píxeles) ≅ 3,5 micras/píxel

Un problema común a estas cámaras es el pequeño tamaño del sensor (y de los píxeles), que genera mucho ruido y poca sensibilidad. Debido a que en muchos casos no admiten exposiciones prolongadas, el campo de posibilidades se limita en estos casos a escenas y objetos brillantes. Para su uso en Astrofotografía la cámara debe permitir exposiciones de al menos 15 segundos. La cámara debe ofrecer un nivel de ruido aceptable en tomas de exposición. Un indicio de esta calidad lo proporciona los valores de ISO utilizables en exposición larga, si permite el uso de ISO 400 en algunas cámaras, el nivel de ruido es moderado (figura 28). Algunos cámaras realizan automáticamente, tras realizar la exposición, una toma oscura o dark, para restar el ruido térmico de la toma. Se trata de una exposición de igual duración que la toma pero con el objetivo tapado.   28astro Figura 28. La constelación del Escorpión sobre el observatorio del Teide (IAC).Cámara compacta Sony DSC-P200, ISO 400, F2.8, Exp: 20 segundos, luz de luna. © www.shelios.com   También es aconsejable, aunque no imprescindible, que la cámara posea un modo manual, sobre todo para las fotografías tomadas a través de óptica auxiliar, como telescopios. Es importante asimismo que la capacidad de las pilas o baterías sea lo mayor posible, ya que el consumo aumenta notablemente en las tomas con exposición y en condiciones nocturnas de baja temperatura y alta humedad relativa. La oferta de cámaras digitales es un mercado muy dinámico, ya que en cuestión de pocos meses aparecen nuevos modelos que reemplazan a los anteriores. Por esta razón no podemos indicar cámaras concretas, pero ciertos modelos de Sony, Panasonic, Olympus, Canon o Nikon cumplen estas condiciones.   AccesoriosTrípode fotográfico. Debe ser robusto y preferiblemente de aluminio, aunque existen modelos ligeros y sólidos en fibra de carbono. Debe permitir el encuadre rápido y fácil tanto en vertical como en horizontal, a cualquier posición, incluida la cenital. Existen diversos cabezales, algunos tipo joystick, que permiten realizar el encuadre rápida y cómodamente con una sola mano. Entre los mejores y más modulares están los trípodes Manfrotto (manfrotto.com), Velbon (velbon.co.uk) y Gitzo (gitzo.com).

  • Disparador de cable o inalámbrico. No lo admiten todas las cámaras, pero siempre que se pueda debe utilizarse para evitar trepidaciones y movimientos de cámara al realizar las exposiciones.

 

  • Nivel burbuja pequeño para nivelar el horizonte en condiciones de oscuridad.

 

  • Elementos para la observación nocturna:
  1.    Linterna. Recomendable los frontales de doble LED (blanco y rojo). La luz roja se utiliza para preservar la adaptación visual a la oscuridad.
  1. Cartas o planisferios celestes y efemérides de fenómenos visibles a simple vista.

 

  1. Material vario relacionado con la observación, como ropa, alimentación, etc (véase Unidad Didáctica El cielo nocturno en astroaula.net)

5.1. Astrofotografía con solo cámara  Previamente a la sesión de observación para la obtención de imágenes hay que realizar una planificación con el fin de aprovechar al máximo sus posibilidades. Es muy importante situarse alejados de núcleos urbanos (contaminación lumínica) y no realizar las fotografías en épocas de luna llena. Aquí únicamente reseñamos los diferentes tipos de objetos y fenómenos observables fácilmente a simple vista y, por lo tanto, que pueden ser captados con la cámara digital. De una manera general podemos considerar dos tipos de imágenes: 1) Cielo estrellado. En este grupo entrarían las constelaciones observables y los planetas visibles a simple vista. Debemos distinguir entre dos tipos de tomas de imágenes:

  • Exposiciones únicas (tipo I). Limitadas al tiempo de exposición máximo que proporciona la cámara (15-30 segundos normalmente). Permiten captar las estrellas y planetas visibles con aspecto puntual.

Para que la imagen no resulta excesivamente oscura es recomendable realizarla con luz de Luna o incluso durante el crepúsculo (figura 29).

29astro

Figura 29 La constelación de la Osa Mayor entre las cúpulas del observatorio del Teide (IAC).Cámara compacta Sony DSC- P200, ISO 400, F2.8, Exp: 20 segundos, luz de luna. © www.shelios.com

  • Series de exposiciones (tipo II). Se trata de obtener en secuencia continua imágenes con el tiempo de exposición máximo que proporciona la cámara. Posteriormente en la fase de procesado de imagen estas tomas se sumarán y se obtendrá una imagen final que acumulará todas las exposiciones mostrando los trazos de las estrellas.

Hay que tener en cuenta el tiempo total equivalente de cada exposición para conocer el número de imágenes a realizar. Por ejemplo, si se planea realizar el equivalente a 2 horas y la cámara realiza exposiciones de 30 segundos como máximo, habrá que obtener 240 imágenes. En estos casos lo más conveniente es realizar un trabajo en equipo, turnándose a intervalos regulares para realizar la tarea. Para la realización de este tipo de fotografías debemos tener en cuenta que la rotación de la Tierra, causante del movimiento aparente de las estrellas en el cielo, es de unos 15o por hora. Por otra parte la orientación de la cámara determinará el tipo de trazado: rectilíneo hacia la zona ecuatorial celeste y curvado fuera de ésta (tanto más cuanto más cerca del polo celeste). Resulta interesante obtener imágenes hacia el polo norte celeste (aproximadamente la estrella Polar), para producir el llamado «efecto de túnel de estrellas», es decir, captar el movimiento de las estrellas circumpolares (figura 30). (Consúltese la Unidad Didáctica «El cielo nocturno», para repasar conceptos de campo angular, orientación y movimientos celestes).   30astro Figura 30. Movimiento aparente de las estrellas circumpolares en el observatorio del Teide (IAC).Cámara compacta Panasonic Lumix DMC-FX35, f/2,8. 31 exposiciones de 30 segundos. www.shelios.com   Normalmente utilizaremos la focal mínima de la cámara, que proporciona la máxima cobertura de visión y ofrece la mayor luminosidad del objetivo. En cámaras compactas, en las que el sensor es menor, se emplea el concepto de «focal equivalente», referido a un sensor de formato completo (24×36 mm). Una manera rápida de calcular el campo angular cubierto por el  objetivo (C, en grados) es emplear la siguiente fórmula:

CL (º) = (2.063/F)  (lado mayor de la imagen), (6)

siendo CL el campo angular del lado mayor de la imagen y F la focal equivalente, en milímetros, del objetivo. Por ejemplo, una cámara con el objetivo ajustado a la focal de 35 mm equivalente, proporcionará el siguiente campo angular (lado mayor):

CL = (2.063/35) ≈ 59º

Como se ha mencionado anteriormente, las cámaras compactas digitales emplean comúnmente el formato 4:3 (relación entre el lado mayor y menor de la imagen) en vez del 3:2, utilizado en la mayoría de las cámaras réflex digitales o analógicas. Por lo tanto el campo angular cubierto por el lado menor (Cl) dependerá del tipo de formato:

Para formato 4:3,

Cl (º) = (2.063/F) x 3/4

Para formato 3:2,

Cl (º) = (2.063/F) x 2/3

Utilizando la misma focal equivalente (35 mm) del ejemplo anterior tendríamos, respectivamente: (6) Esta fórmula es una simplificación aproximada de la correcta (para no utilizar funciones trigonométricas), Véase la dirección http://en.wikipedia.org/wiki/Angle_of_view

 

Cl = (2.063/F) x 3/4 ≈ 44º

Cl = (2.063/F) x 2/3 ≈ 39º

Para calcular el tiempo de exposición «límite», de manera que no se muestren los astros movidos, podemos emplear la siguiente fórmula:

t(s) = 440 / (F x cos d)

,donde F es la focal equivalente del objetivo en milímetros y d la declinación mínima del astro o del campo a fotografiar, ya que si se utiliza para el cálculo la declinación del centro del campo, los astros que estén en el borde aparecerán en la imagen movidos. Por ejemplo, si se centra la cámara en el PNC, (d =90º) el tiempo de exposición que daría la fórmula sería infinito. Sin embargo, en los bordes de un campo abarcado por una focal equivalente de 50 mm., habrá astros de declinación d =90º – (41º / 2) = 69,5º y el tiempo máximo de exposición para obtener estrellas puntuales en todo el campo sería:

 

t = 440 / (50 x cos 69,5º) ≅ 25 segundos

2) Eventos o fenómenos. Para conocer su visibilidad deben consultarse revistas especializadas, programas informáticos efemérides (ver apartado 7, Direcciones de Internet). Según su origen se pueden dividir en:

a. Naturales.

i. C o n j u n c i o n e s . Acercamientos aparentes entre estrellas y planetas brillantes, así como con la Luna. Pueden ofrecer bellas estampas, sobre todo en los momentos crepusculares. Imágenes tipo I.   ii. Lluvias de meteoros. Se producen en ciertas fechas del año (ver la Unidad Didáctica «Lluvias de Estrellas»). Los trazos luminosos parecerán provenir de un mismo punto del cielo llamado radiante. Imágenes tipos I y sobre todo II (figura 31).

 

f31Figura 31. Dos trazos de meteoros perseidas captados durante el máximo de intensidad (12 agosto 2006) desde el observatorio del Teide. Cámara compacta Sony DSC- P200, ISO 400, f/2.8, 20 s. www.shelios.com

 

iii. Cometas brillantes. No son habituales, pero pueden aparecer en cualquier momento (consultar efemérides), sobre todo hacia los horizontes oeste (al anochecer) y este (al amanecer). Permanecen visibles durante días (lo más usual) o semanas. Imágenes tipo I.

 

iv. Luz zodiacal. Requiere cielos oscuros. Ténue luminosidad celeste difusa de aspecto triangular alargada. Dispuesta sobre la eclíptica, resulta mejor observable al oeste en la primavera al final del crepúsculo, y al este en el otoño antes del alba. Imágenes tipo I o tipo II con pocas exposiciones acumuladas.

 

b. No naturales

 

Satélites artificiales: resultan especialmente visibles la Estación Espacial Internacional (ISS), que cruza el cielo en minutos y llega a alcanzar brillos elevados y los satélites de la red Iridium, que pueden producir unos destellos muy intensos (más brillantes que Venus), aun- que solamente de unos segundos de dura- ción. Imágenes tipo I o tipo II con po- cas exposiciones acumuladas.

 

Metodología Para la obtención de las imágenes debemos realizar una serie de ajustes en la cámara y tener en cuenta varios aspectos:

  • Las pilas o baterías deben estar cargadas completamente. En noches frías y húmedas se descargan con mayor rapidez.

 

  • El zoom hace variar la focal del objetivo y por lo tanto el campo de visión. A mayor focal, menor campo angular. Generalmente utilizaremos la focal más pequeña, que además posee la mayor luminosidad de toda la gama.

 

  • El diafragma debe ajustarse a la mayor luminosidad posible (menor número «f»).

 

  • – La sensibilidad (ISO) se seleccionará a valores no muy altos (400 ISO es suficiente). En algunas cámaras al utilizarse en modo larga exposición la sensibilidad se limita como máximo a ISO 200 ó 400.

 

  • Deberemos asegurarnos que el enfoque se realiza a infinito ( ) o efectuarlo manualmente (depende de la cámara).

 

  • Normalmente este tipo de cámara genera un archivo de imagen en formato JPEG. Deberemos escoger la mejor calidad, pero sin variar el tamaño de archivo (mantener el mayor número de píxeles).

 

  • Resulta conveniente realizar tomas oscuras o «darks» para utilizarlas posteriormente en el procesado para la  corrección del ruido electrónico de la imagen. Los darks son fotografías hechas con el objetivo de la cámara tapado y en las mismas condiciones que las imágenes normales (tiempo de exposición y temperatura). Deben realizarse unas cuantas (~10) para promediarse posteriormente.

 

  • En las tomas contínuas para obtener trazos estelares, es importante no perder tiempo entre toma y toma, es decir, comenzar la siguiente en cuanto se haya acabado una exposición (si no se producirían «espacios» en los trazos) . Para ello habrá que manipular con cuidado la cámara procurando no moverla lo más mínimo.

 

El encuadre.

 

Podrá ser vertical u horizontal a conveniencia. En cualquier caso resulta recomendable atender unas mínimas normas de composición para lograr imágenes más interesantes y atractivas. Por ejemplo, debe buscarse un primer plano terrestre que referencie el horizonte y dé profundidad a la escena. Pueden ser elementos naturales como árboles y montañas, o artificiales como casas.

 

5.2. Astrofotografía con óptica auxiliar Las cámaras pueden adaptarse fácilmente a sistemas ópticos, como telescopios e incluso prismáticos (aunque en este caso la calidad óptica disminuirá), utilizando el método afocal. El sistema afocal emplea como óptica principal un telescopio provisto de un ocular de bajo aumento y gran campo, acoplando una cámara con objetivo. Hace unos años se popularizó con cámaras digitales compactas en fotografía de naturaleza y caza fotográfica de animales con el nombre de digiscoping (figura 32). f32 Figura 32. Esquema de montaje para la fotografía afocal. Dibujo J.C. Casado.   El método afocal permite alcanzar aumentos elevados fácilmente y la distancia focal efectiva (la proporcionada por el sistema telescopio y cámara) se puede calcular: Fe = F objetivo /F ocular xF telescopio ,siendo Fe la focal efectiva (mm), F objetivo la focal del objetivo empleado en la cámara (mm), F ocular la focal del ocular (mm) y F telescopio la focal del telescopio (mm). Ejemplo: queremos fotografiar la Luna con el método afocal, empleando un telescopio de 1.000 mm de focal con ocular de 25 mm y cámara con objetivo de 24 mm; ¿cuál será la focal efectiva? Fe = 24 / 25 x 1.000 = 960 mm. Este valor hay que multiplicarlo por el coeficiente de conversión de la cámara digital. Si, por ejemplo, fuera de 5, en el caso anterior tendríamos una focal equivalente en 35 mm. de: 960 mm. x 5 = 4.800 mm. De esta manera puede llegar a fotografiarse con buena calidad y sencillez objetos extensos y brillantes como la Luna y el Sol (con filtros adecuados) (figura 33). f33 Figura 33. A la izquierda, tránsito del planeta Venus por el Sol (8 junio 2004). Se realizó una fotografía cada 45 minutos, combinándose posteriormente mediante ordenador para mostrar el recorrido sobre la superficie solar. A la derecha, luna casi llena. En ambos casos se utilizó una cámara compacta digital Nikon Coolpix 995 acoplada a un ocular Erfle de 26mm en un telescopio Newton-Maksutov de 152 mm. de abertura a f/6, exposición manual. Filtro DN 5 para el Sol. Fotos y procesado J.C. Casado. © www.starryearth.com Los detalles de planetas brillantes (Venus, Marte, Júpiter y Saturno) resultan más difíciles de captar con buena calidad, aunque pueden obtenerse fácilmente tomas que muestren las fases de Venus, los satélites galileanos de Júpiter y los anillos de Saturno (figura 34). Para ello resulta más apropiado utilizar las webcams o cámaras de vídeo (véase Unidad Didáctica Webcam y CCD), aunque muchas de estas cámaras también disponen de modo video. f34Figura 34. A la izquierda, las fases del planeta Venus son fáciles de fotografiar con una cámara digital compacta y un telescopio. Cámara Nikon Coolpix 995 colocada junto a un ocular Erfle de 26 mm. con lente Barlow en un telescopio Newton-Maksutov de 152 mm. de abertura f/6, utilizando el máximo zoom de la cámara. Cinco exposiciones de 1/250 segundo para promediar la turbulencia. El aspecto ligeramente irisado del planeta es debido a la refracción terrestre. Imagen J.C. Casado. © www.starryearth.com. A la derecha, una excelente imagen de Saturno obtenida con una cámara compacta digital Canon A70 acoplada a un ocular ScopeTronix MaxView 40 con lente Barlow 3x y zoom x3. 50 imágenes (1/5 s, ISO 100) alineadas y promediadas con el software K3CCD. Telescopio Schmidt- Cassegrain de 200 mm. de abertura, f/10. Imagen y procesado Wayne Cukras. En cualquier caso debe tenerse la precaución de desactivar el flash de la cámara, ya que el sistema de medición de luz detecta oscuridad y activa el flash por defecto. Si el objeto ocupa una gran porción del campo de visión estando centrado, seguramente al modo automático realizará una correcta exposición, pero siempre que sea posible debe emplearse el modo manual, ya que así se asegura una uniformidad y control en las condiciones de toma. También es posible, aunque no fácil, captar objetos de cielo profundo. Para ello es necesario un conjunto telescopio-ocular de elevada luminosidad y calidad con un sistema de seguimiento automático (montura ecuatorial). Únicamente las cámaras que permiten exposiciones largas (15 segundos o más) hacen posible la obtención de tales imágenes. El sistema consiste en obtener una secuencia de tomas del objeto, para posteriormente sumarla mediante un software de procesado de imágenes. Por ejemplo, 10 imágenes de 15 segundos de exposición de exposición equivalen a una única toma de 2,5 minutos de exposición (figura 35). f35Figura 35. La nebulosa de Orión (M 42) fotografiada con una cámara compacta digital Canon C-5050Z acoplada a un telescopio refractor de fluorita de 125 mm. de abertura con un ocular LV de 25 mm. Suma de 18 imágenes de 16 segundos de exposición,ISO 400. Imagen y procesado Naoyuki Kurita. Compárese con la imagen tomada en 1883 por Common (figura 2, página 11). La correcta adaptación mecánica al ocular del telescopio depende del diámetro del conjunto barrilete-objetivo de la cámara. En concreto, la fotografía de la Luna resulta asombrosamente sencilla, pudiéndose realizar simplemente a pulso aproximando lo máximo posible el objetivo de la cámara al ocular y alineando la cámara correctamente. Normalmente suele aparecer viñeteo, que se muestra como una pérdida paulatina de la luminosidad de la imagen hacia los borde de ésta, llegando incluso a perderse la imagen en las zonas exteriores (figura 36). Para evitarlo se debe utilizar el zoom óptico de manera que ampliaremos la zona central de la imagen, que por otra parte es la mejor ópticamente. f36Figura 36. Viñeteado y pérdida de campo visual. Mediante un filtro de hidrógeno-alfa acoplado a un telescopio refractor apocrocromático de 102 mm. de abertura, f/9, con ocular de 35 mm. se fotografió la cromosfera solar y algunas protuberancias.Cámara compacta digital Sony DSC-W17. Foto J.C. Casado, © www.starryearth.com. Existen adaptadores universales, que permiten fijar la cámara frente al ocular, con una correcta alineación óptica mediante movimientos finos de ajuste. Además de esta manera se pueden realizar exposiciones más largas y por lo tanto fotografiar objetos o escenas menos luminosas (figura 37). Se puede solucionar el problema del viñeteo sin ampliar la imagen mediante oculares especialmente diseñados para su uso con cámaras compactas digitales. Además como el objetivo de la cámara se rosca en el ocular, la alineación óptica resulta perfecta. Estos oculares disponen de gran diámetro de lente y una amplia distancia focal, para obtener imágenes luminosas, produciendo además una mejor calidad óptica que con un ocular convencional (como los de la empresa Scopetronix (www.scopetronics.com). Existen anillos adaptadores para acoplar el ocular a muchas cámaras del mercado. f37Figura 37. Adaptador universal para cámaras compactas digitales (también válido para pequeñas cámaras de vídeo). Se pueden realizar movimientos de ajuste en los tres ejes del espacio para realizar una precisa alineación óptica. Foto J.C. Casado. Como las cámaras compactas a diferencia de las DSLR no poseen espe
jo pivotante, la vibración producida al realizar la exposición es mínima, aunque siempre se debe utilizar un cable disparador o el sistema de retardo de disparo. Un problema común a estas cámaras es el «lag», o diferencia de tiempo entre el momento en que se pulsa el botón de disparo y el instante en que se abre el obturador para exponer el sensor a la luz. Aunque este retardo es pequeño, puede captar instantes diferentes en sucesos dinámicos (eclipses, puestas de Sol, etc) con respecto a lo que se ve, así como afectar al enfoque, ya que el mecanismo de autofoco -si se utiliza- necesita un pequeño lapso de tiempo para realizar su tarea.   5.3. Fotografía HDRI En el Apartado 3 se ha hablado del rango dinámico, exponiéndose que en determinadas ocasiones el rango dinámico de la escena supera al de la cámara, siendo ésta incapaz de captar todo el rango de luminosidades existentes. Sin embargo, se puede realizar secuencias de exposiciones («bracketing») ajustando la iluminación «correcta», por ejemplo, para sombras, tonos medios y altas luces. Para ello la cámara debe permanecer inmóvil en un soporte rígido (trípode). Posteriormente las imágenes obtenidas pueden combinarse con software en el ordenador. Son técnicas que globalmente se les denomina HDRI (High Dynamic Range Imaging). En determinados fenómenos naturales y astronómicos, la escena a captar puede abarcar un rango dinámico mucho mayor que en situaciones convencionales (figura 38). Por ejemplo, durante un eclipse total de Sol la corona muestra una gama de luminosidades entre las zonas más claras y las más oscuras de unas 20.000 veces o más de 14 diafragmas. Objetos del firmamento, como ciertas nebulosas o galaxias, pueden mostrar asimismo un amplio rango dinámico. f38Figura 38. Ejemplo de obtención de una imagen HDR. En este caso, se han utilizado tres fotografías con diferentes exposiciones que se han combinado posteriormente mediante software específico. Salida de luna sobre la isla de Gran Canaria. Fotos y procesado J.C. Casado, © www.starryearth.com. Las imágenes digitales HDR necesitan un número de bits por canal de color mayor que las convencionales, utilizándose 32 bits/canal. El software realiza lo que se conoce como mapa tonal, de manera que se puedan visualizar adecuadamente las imágenes HDR en dispositivos como monitores, impresoras o proyectores, al convertirse a espacios de colores menores. Existe software específico para realizar imágenes HDR como:

  • Photomatix (comercial, para Windows y Macintosh), en http://www.hdrsoft.com – easyHDR (comercial, para Windows), en http://www.easyhdr.com
  • Picturenaut (gratis, para Windows), en http://www.picturenaut.de
  • – Zero Noise (gratis, para Windows), en http://www.guillermoluijk.com/
  • software/zeronoise/index.htm
  • – DRIMaker (gratis, para Macintosh), en http://www.drimaker.com
  • – A partir de la versión CS2 de Adobe Photoshop se dispone de una herramienta para realizar imágenes HDR mediante secuencias de imágenes con diferentes exposiciones.

Además con programas de procesado de imagen que permiten capas y máscaras se pueden realizar manualmente imágenes HDR, haciendo transparentes aquellas zonas de la imagen que no contengan información (negras absolutas o saturadas) (véase apartado direcciones de Internet 7.3). 6 – Procesado de imagen Para las imágenes del tipo II (trazos estelares), además de restarse los darks, deben sumarse todas las imágenes individuales para conseguir los trazos. Incluso es posible obtener una animación de gran interés didáctica que mostrará el movimiento celeste y los cambios de luz y color. Para ello ya existe software específico que realiza esta tarea automáticamente (ver apartado 7, Direcciones de Internet). Posteriormente al igual que las imágenes del tipo I, pueden realizarse ajustes en la imagen. Para realizar el procesado con software de edición de imágenes se ha de tener cuenta que siempre que sea posible deben restarse los darks promediados (si se han obtenido), para «limpiar» la imagen de ruido. A esta fase se le llama preprocesado. Posteriormente las imágenes se procesan para obtener el resultado final, como veremos a continuación. Procesado digital básico Estas notas introducen al procesado digital de imágenes astronómicas como campos estelares y cielo nocturno en general. Aunque las herramientas empleadas hacen referencia al programa Photoshop, su aplicabilidad es válida a cualquier programa general de edición digital de imágenes, dado que las instrucciones son de ámbito universal. Introducción. Para familiarizarse es conveniente trabajar con imágenes pequeñas, pero que permitan observar con detalle los resultados de los diferentes procesos. Según la resolución de la pantalla pueden ser del orden de los 1.280 x 1.024 píxeles (SXGA). Para ver correctamente los resultados siempre se debe visualizar la imagen al 100 %. Al trabajar con imágenes resulta conveniente dejar visible la ventana de información. Esta ventana proporciona los valores de intensidad (entre otras cosas) para los componentes rojo, verde y azul que forman la imagen (RGB). Seleccionando la herramienta Cuentagotas es posible cambiar los tamaños de muestra desde un único píxel hasta áreas cuadradas de diversos tamaños para promediar la lectura de los valores (figura 39). f39 Figura 39. El cuentagotas y la ventana de información constituyen unas herramientas muy útiles cuando se procesan imágenes. Imagen J.C. Casado, © www.starryearth.com. Siempre que se pueda se debe trabajar con las imágenes a 16 bits/canal, ya que en el procesado se pierden tonos y pueden aparecer efectos de posterización, visibles en forma de bandas que agrupan zonas de tonos semejantes. Es importante asimismo disponer de un buen monitor y haberlo calibrado previamente para una correcta reproducción de la luminosidad y el color de la imagen (Photoshop ya tiene un asistente para la calibración). Un calibrador sencillo, asequible y fiable lo constituye el Pantone huey (http://www.microgamma.com/ pantone/huey.php), válido para pantallas LCD, de tubo o para ordenadores portátiles. Para la visualización, existen monitores que ofrecen buena relación calidad-precio como la serie FP de Benq (http://benq.es/products/LCD). No menos importante es la potencia del ordenador y sobre todo la cantidad de memoria RAM. Photoshop necesita unas 5 veces la cantidad de memoria del tamaño de imagen. Debe tenerse en cuenta que un porcentaje de la memoria RAM se lo reserva el sistema para sus tareas. En Photoshop puede asignarse la memoria utilizada por el programa. Las imágenes de alta densidad de color (más bits por canal), así como el empleo de capas aumentan las demandas de memoria. Si se supera un límite, se utiliza la memoria virtual, con lo cual una parte del disco duro actúa como memoria RAM, lo que permite realizar el proceso pero lentamente. Por último hay que tener en cuenta que todo los procesos que se indican a continuación pueden aplicarse también a determinadas zonas de la imagen que pueden seleccionarse con cualquiera de las herramientas o métodos que el programa dispone. Niveles. En fotografía convencional se abarcan zonas que van desde el negro (como una sombra muy oscura) hasta el blanco (zonas sobreexpuestas). De hecho las imágenes astronómicas tales como constelaciones son ejemplos ideales para este tipo de procesado (cielo negro y estrellas blancas). Antes de comenzar debe recortarse la imagen si quedan bordes blancos o zonas que han sido escaneadas fuera del fotograma. La herramienta Niveles proporciona la opción Auto (Automático), aunque rara vez los resultados son satisfactorios. Por ello debe actuarse manualmente. Bajo el histograma aparecen tres cursores triangulares: negro, gris y blanco, que hacen referencia, respectivamente, a los píxeles de los tonos negros, grises medios y blancos (figura 40). El blanco es sencillo de manejar e indica normalmente cómo aparecerán las estrellas. f40Figura 40. Los niveles en Photoshop.           El negro tiene más dificultad porque en una imagen astronómica hay muchos píxeles muy oscuros. Además no siempre resulta satisfactorio un cielo completamente negro. El fondo de cielo siempre tiene una iluminación de polución luminosa, dispersión atmosférica y partículas de polvo, así como el de las propias estrellas. Poniendo el cielo negro se puede ocultar la visibilidad de débiles tonos. De todas maneras el fondo de cielo debe ser neutro o de un color agradable estéticamente que, por ejemplo, compense los efectos de la posible polución luminosa. Para ello debe actuarse individualmente sobre los histogramas rojo, verde y azul de la imagen. El cursor negro (a la izquierda) se debe llevar al punto donde comience la curva ascendente del histograma.   La imagen resultante, aunque bien equilibrada de color puede resultar demasiado oscura. En este caso se debe actuar en el canal RGB (todos los colores a la vez) moviendo el cursor del medio (gris), que incide sobre los tonos medios de la imagen. Si se mueve hacia la izquierda ésta se hará más clara y si se lleva a la derecha, se oscurecerá. Otra técnica para conseguir un fondo agradable es utilizar Niveles. Se hace doble clic en el cuentagotas negro de Niveles y se eligen unos valores R-G-B (15-25-40) clicando en una zona oscura de fondo de cielo (figura 41). O bien, crear un borde blanco de 10 píxeles, en Niveles hacer doble clic en cuentagotas negro (RGB a 15-25-40) y doble clic en el cuentagotas blanco (RGB a 245-245-245), después clicar en Auto, lo que producirá un fondo azul oscuro estético. También puede obtenerse por unos valores neutrales de los canales RGB, por ejemplo, 25, 25, 25.

f41Figura 41. 1, haciendo doble clic en el cuentagotas negro de Niveles, se eligen los valores RGB para el fondo en la ventana emergente (2) y se cliquea en la zona correspondiente de la imagen (3).

El cursor blanco (que representa las altas luces o píxeles saturados), situado a la derecha, debe situarse igualmente al comienzo del histograma. Como esta redistribución del histograma afecta a los tonos medios, debe ajustarse visualmente el cursor gris para obtener una imagen en la que el fondo de cielo no sea totalmente negro, pero que tampoco resulte claro. Contraste. También se puede utilizar el histograma RGB para ajustar el contraste de la imagen. Para aumentar el contraste se debe mover el cursor de blancos (el triángulo de la derecha) y llevarlo hacia la izquierda. De hecho podría incrementarse el contraste llevando el cursor negro hacia la derecha y el blanco hacia la izquierda, de manera que se produjera una compresión del rango tonal de la imagen (pérdida de la gama de grises). Pero, como se ha visto, el negro ya ha sido corregido en un paso anterior. Corrección de color. Aunque una imagen presente un buen equilibrio de color, puede ser no ser de nuestro agrado. Se puede ajustar el color actuando sobre los canales individuales (RGB). Por ejemplo, si la imagen aparece verdosa, seleccionamos el canal verde del histograma y moveremos el cursor central hacia la derecha. Esto reducirá el verde, haciendo que la imagen sea más magenta. Un procedimiento más objetivo es utilizar la información de los canales RGB proporcionada por el cuentagotas en una zona de fondo de cielo (sin nebulosidades y sin estrellas). Una imagen neutral debería presentar una lectura equilibrada en los tres canales RGB. Si un valor es mayor que otro, o menor, debe actuarse sobre el canal compensándolo. Por ejemplo, tenemos una imagen que muestra valores mayores en el canal R, por lo que se actuará en el histograma de este canal moviendo el cursor central (gris) hacia la derecha (oscurecer). La clave de todo este proceso es la experimentación y la experiencia. Curvas. Es una herramienta muy potente que permite un control fino en cualquier zona del histograma (figura 42). Modificando la forma de la curva, alteramos los valores de píxeles correspondientes a determinadas zonas (oscuras, medias o claras), de manera que es posible actuar con mayor precisión e intensidad que con la herramienta Niveles (figura 43). La herramienta Curvas también permite operar por canal, de manera que se puede corregir con mayor precisión el color.

f42Figura 42. Las curvas en Photoshop.

f43 Figura 43. Utilización de la herramienta Curvas. Arriba, imagen original. 1, aclarar. 2, oscurecer. 3, aumentar contraste. 4, disminuir contraste. Imagen original J.C.Casado , © www.starryearth.com.   Saturación de color. Una vez se hayan hecho los ajustes anteriores puede resultar que la imagen quede un poco «apagada». Para remediar esto se hará uso del ajuste Tono/Saturación (menú Imagen>Ajustes> Tono/Saturación). No conviene abusar de la saturación. Debe emplearse un valor de incremento entre el 15 y 25 por ciento. También se puede utilizar cualquiera de las numerosas herramientas de selección del programa para procesar solo una parte de la imagen. Máscara de enfoque. El último paso en el procesado básico de imágenes es incrementar el detalle y la nitidez de la imagen. Para ello se hará uso de los filtros llamados de «enfoque» (menú Filtro>Enfocar>). El más adecuado, por su capacidad de control sobre los efectos en la imagen, es la herramienta Máscara de enfoque. Una vez seleccionada aparece un cuadro de previsualización que muestra los parámetros que afectan a la imagen. Es conveniente situar una zona representativa en la ventana y operar sobre los parámetros hasta que se obtenga la mejor visualización (figura 44).         f44Figura 44. La herramienta Máscara de Enfoque en Photoshop. Estos valores dependen del nivel de detalle captado en la imagen y de la resolución y tamaño de archivo de ésta. Como en todo procesado digital no es recomendable sobreprocesar o exagerar los valores, pues los resultados que producen son antiestéticos y artificiales, pudiendo aparecer artefactos de imagen.   7 – Direcciones de Internet 7.1. Cámaras digitales Análisis de cámaras digitales: http:// www.letsgodigital.org/es 7.2. Efemérides e información observacional

  • – Unidades Didácticas (formato PDF) El cielo nocturno, Lluvias de estrellas, etc: http://www.astroaula.net
  • – Stellarium (gratuito) . Excelente simulador realista del cielo (interfaz multidioma, en español): http:// www.stellarium.org
  • – Planisferios celestes mensuales de calidad (formato PDF, en inglés), con información sobre objetos y fenómenos visibles: http://www.skymaps.com
  • Predicciones para la observación de satélites artificiales (ISS o Iridium) (inglés). Se debe indicar la posición geográfica (coordenadas o mapa): http:/ /www.heavens-above.com
  • – Web de la revista mensual Astronomía (efemérides y observaciones): http:/ /www.astronomia-e.com
  • – Revista Sky and telescope (inglés): http://www.skyandtelescope.com (sección «Observing»): información actualizada y gráfica sobre eclipses, cometas visibles, lluvias de meteoros, conjunciones, etc.

7.3. Procesado de imagen

  • – Startrails(gratuito,inglésoalemán). Programa de suma de imágenes automático para obtener trazos estelares: http:/ /www.startrails.de/html/ software.html
  • – Paint.net (gratuito, español). Programa de edición de imágenes sencillo y de buena calidad: http://www.getpaint.net
  • – Curso on-line de iniciación a Photoshop (español): http:// www.aulaclic.es/photoshopcs3/ index.htm
  • – Información y tutoriales sobre astrofotografía (inglés): http:// www.astropix.com
  • – Técnica HDRI con Photoshop (inglés): http://www.erik-krause.de/blending/ index.htm

7.4. Galerías de imágenes y foros de discusión

  • – Portaldeimágenesastronómicas(español): http://www.tierrayestrellas.com
  • – Astrofotografíasdegrancampo,proyecto TWAN (inglés): http://www.twanight.org
  • – Foro sobre astrofotografía (español): http://www.fotografiaastronomica.com