ASTRONOMIA DIGITAL
El estudio de este apartado es
crucial para trabajar con el equipo disponible en la actualidad.
TIPOS DE SENSORES
Dependiendo del sensor que se utilice
hay dos tipos de cámaras: CMOS
(Semiconductor Complementario de Metal-Óxido), y CCD (dispositivo de carga acoplada). Durante un tiempo de
integración establecido, los píxeles que capturan áreas luminosas de una escena
se saturarán mucho más rápido que los píxeles que capturan las regiones más
oscuras. Cuando hay una variación grande en las intensidades de luz entre las
regiones oscuras y claras no es posible capturar los detalles simultáneamente
en ambas regiones, Ya que si se expone la parte oscura se sobreexpone la parte
clara y viceversa, así que una de las dos zonas tendría que ser sacrificada.
Las CMOS son sensores que no son lineales en su respuesta a la luz, o sea,
que el brillo de los objetos no es proporcional al tiempo de exposición en diferentes niveles de
brillo, por eso solo sirven para fotografiar planetas. Una respuesta lineal como
el de las CCD es satisfactoria cundo
se capturan imágenes que contienen similares niveles de brillo.
Una respuesta no lineal es
como la curva mostrada en la figura de abajo, permite capturar detalles en
ambas regiones: (claras y oscuras) de la imagen, ya que los píxeles de las
zonas más brillantes se tardan más en saturarse que los de las zonas oscuras, y
de este modo los de menor iluminación almacenan también algo de carga. Así funciona
también el ojo humano, como las CMOS.
El sensor de la Genius NB es de tipo CMOS como dije, y tiene las ventajas citadas pero para hacer
mediciones no sirve en lo absoluto, ya que al tener una respuesta diferente a
los diferentes niveles de brillo no sirve para fotometría.
En las "CCD"
la transformación del fotón de luz para convertirse en carga eléctrica, lo hace
saltando de píxel en píxel, hasta el último en donde existe el convertidor
analógico a digital.
En las
"CMOS" la transformación del fotón de luz para convertirse
en carga eléctrica, se efectúa en el mismo "casillero" del píxel y al
final es en donde existe el convertidor analógico a digital.
En
estos dos procedimientos, acarrean más cantidad de
ruido las "CMOS" respecto a las "CCD", en
lo concerniente a tomas de "Largas Exposiciones",
En las
"CCD" se produce más calor, por la energía consumida en el proceso del salto, etc, pero en las cámaras para Astronomía se soluciona
con software, que rebaja hasta -30ªC el calor
producido respecto a la temperatura ambiente, sin embargo es siempre mejor
enfriar el sensor sea del tipo que sea, es por esto el pequeño ventilador en la
cámara que construí.
En cuanto a la descarga de la
información es igual en las dos, la información se descarga píxel por píxel uno
detrás de otro por orden de fila, ver figura abajo, y la información se pasa en
digital en el registro vertical a la computadora.
Ya conocimos el espectro
electromagnético en el apartado anterior. Ahora veremos que cada sensor
responde de una manera distinta a las diferentes longitudes de onda del
espectro, así como la hacia película fotográfica, esto se expresa con el
termino “QE”:
“QE” Eficiencia
quántica: expresado
en %, nos indica que cantidad de luz
es realmente captada por la cámara en una longitud de onda determinada.
Una cámara con mayor eficiencia y que cubra un rango mayor de
longitudes de onda, será sin duda la mejor. Si vamos a realizar tricromía
“imágenes en color” será necesario
que el chip CCD tenga una buena respuesta a las 3 bandas: (azul, verde y roja).
Las cámaras actuales tienen también
buena sensibilidad al infrarrojo cercano, esto es provechoso, ya que
muchos objetos de cielo profundo emiten en esta longitud de onda. En esta
gráfica podemos ver la comparación de eficiencia cuántica de dos modelos de CCD
diferentes, como puede verse, la opción azul (KAF -3200ME), no solo tiene mayor eficiencia quántica, sino más rango en los
dos extremos del espectro.
El término QE no sólo contiene la información relativa a la eficiencia
cuántica del detector, sino también la referente a las eficiencias de
transmisión del telescopio, filtros y óptica de la cámara.
Esto en el caso de las cámaras con
sensor en blanco y negro, la separación de los colores la hace el aficionado
tomando tres imágenes, una con un filtro de cada color y luego integrarlos
digitalmente para obtener una imagen en color a esto lo llamamos “tricromía”.
SENSORES
A COLOR
En
las cámaras actuales existen dos técnicas para captar el color en el chip. En
la primera se utilizan tres capas de sensores, cada una provista de un filtro
del color primario, como la película fotográfica en color, de manera que cada
capa aporta la información necesaria para reconstituir posteriormente el color.
El
segundo sistema consiste en una única capa formada por un mosaico de 3 píxeles,
cada uno de los cuales está provisto de un filtro de color diferente. Sin
embargo, de esta manera solo se aprovecha una parte de los píxeles para cada
color, y mediante un proceso de interpolación que ocurre en el programa de la
cámara se reconstruyen los colores y se restituye la resolución teórica. La
sensibilidad de los chips en color se nos muestra en tres curvas, una para cada
serie de píxel, ver figuras de abajo.
Una de sus ventajas es que se
puede separar la señal electrónica que viene de los píxeles rojos solamente, o
de los azules, etc, y trabajar solo con esa como si
usáramos un filtro, con la ventaja de hacerlo tomando una sola imagen en
colores, esta separación la hacen los programas, la desventaja es que no
podemos modificar la curva sino trabajar con la que ya tiene cada píxel, vemos
en la imagen de arriba que la curva de los píxeles azules bajan su QE en 600 manómetros, pero en los 700
(infrarrojo cercano) vuelve a subir, incluso siendo mas sensible al infrarrojo en
los 850 nm que al al mismo
azul, pero en este caso ellos agregan el filtro infrarrojo para que esta parte
del espectro no entre.
La eficiencia quántica un ningún sensor
sea CCD o CMOS es rigurosamente uniforme en toda la superficie, pero esto se
corrige con las tomas de campo plano llamadas “flat”.
FLAT: Es una imagen que se obtiene tomando exposiciones de Luz
distribuidas uniformemente (llamadas también imágenes campo plano), bien sea de
la cúpula del telescopio iluminada por una lámpara (dome flats),
del cielo al atardecer o amanecer (twilight flats) o del cielo nocturno en zonas donde no se detecten
estrellas (sky flats) con
esto tenemos una imagen donde se ven los sucios del sensor y las desuniformidades y esta imagen se la restamos a la imagen
astronómica y con esto los defectos introducidos por el sensor.
CORRIENTE DE OSCURIDAD: representa el número de electrones
generados por la cámara por unidad de tiempo, normalmente debidos al ruido
térmico, cuando un sensor esta en funcionamiento la misma agitación
térmica de los electrones en el circuito de las cámara, van a generar una señal en
el chip, aunque este no este expuesto a la luz. Esta varía mucho con la
temperatura, cayendo a la mitad cada vez que la temperatura desciende unos
5 grados. Por esta razón se enfría el
chip, pero para minimizar aun mas este problema se realizar una serie de
tomas oscuras, o sea imágenes con el telescopio tapado para que no entre nada
de luz, con el mismo tiempo de exposición y a la misma temperatura que las imagenes que vamos a realizar, para posteriormente restar
dichas tomas oscuras a las imágenes, esto se hace con el programa IRIS en el menú: PROSSESING/SUBTRACT, a estas tomas se le llama DARK o CUADROS OSCUROS.
El control de temperatura permite regular la temperatura de la cámara de
manera que es posible utilizar durante toda la noche los mismos darks.
El enfriamiento casi siempre se obtiene con una CELULA PELTIER que es un sistema de refrigeración termoeléctrico,
aunque yo use solo un ventilador como mostré en la construcción de mi cámara.
CAPACIDAD ELECTRONICA: Es la cantidad máxima de
electrones que un píxel puede captar antes de saturarse. Píxeles de mayor
tamaño tienen mayor capacidad para almacenar electrones. Para píxeles muy
pequeños este valor será más bien bajo, lo que provocara que partes más
brillantes de la imagen queden saturadas antes de que otros detalles
débiles fueran captados. Esto es muy dañino para la fotometria,
ya que una estrella débil necesita mas cantidad de tiempo para captarse que una
brillante, y la lectura de la brillante queda parada porque el sensor ya no
acumula mas luz en los píxeles correspondientes a la estrella brillante, pero
sigue acumulando en la estrella mas débil con lo que se distorsiona el mapa de
luz y no se puede usar el brillo de una para conocer el de la otra.
En el caso de que no necesitemos captar tanto detalle se puede solventar con modo que se conoce como BINNING: es una modalidad para operar el CCD de modo que no se sature tan pronto, consiste en usar varios píxeles trabajando en conjunto para funcionar como un píxel mas grande y así no saturarse con tan pocos electrones, cuando las Webcam la cambiamos de resolución de 352 X 288 a 140 X 120 etc. el programa utiliza varios píxeles para actuar como uno solo, esta trabajando de modo binning. Pero se pierde resolución porque los píxeles se vuelven más grandes. Si no queremos perder resolución hacemos tomas con exposiciones que no lleguen a la saturación y sumarlas todas, esto se hace en el programa iris menú PROSSESING/ADD.