ASTRONOMIA DIGITAL

 

El estudio de este apartado es crucial para trabajar con el equipo disponible en la actualidad.

 

 

TIPOS DE SENSORES

 

Dependiendo del sensor que se utilice hay dos tipos de cámaras: CMOS (Semiconductor Complementario de Metal-Óxido), y CCD (dispositivo de carga acoplada). Durante un tiempo de integración establecido, los píxeles que capturan áreas luminosas de una escena se saturarán mucho más rápido que los píxeles que capturan las regiones más oscuras. Cuando hay una variación grande en las intensidades de luz entre las regiones oscuras y claras no es posible capturar los detalles simultáneamente en ambas regiones, Ya que si se expone la parte oscura se sobreexpone la parte clara y viceversa, así que una de las dos zonas tendría que ser sacrificada.

 

Las CMOS son sensores que no son lineales en su respuesta a la luz, o sea, que el brillo de los objetos no es proporcional al tiempo de exposición en diferentes niveles de brillo, por eso solo sirven para fotografiar planetas. Una respuesta lineal como el de las CCD es satisfactoria cundo se capturan imágenes que contienen similares niveles de brillo. 

 

Una respuesta no lineal es como la curva mostrada en la figura de abajo, permite capturar detalles en ambas regiones: (claras y oscuras) de la imagen, ya que los píxeles de las zonas más brillantes se tardan más en saturarse que los de las zonas oscuras, y de este modo los de menor iluminación almacenan también algo de carga. Así funciona también el ojo humano, como las CMOS.

 

 

El sensor de la Genius NB es de tipo CMOS como dije, y tiene las ventajas citadas pero para hacer mediciones no sirve en lo absoluto, ya que al tener una respuesta diferente a los diferentes niveles de brillo no sirve para fotometría.

En las "CCD" la transformación del fotón de luz para convertirse en carga eléctrica, lo hace saltando de píxel en píxel, hasta el último en donde existe el convertidor analógico a digital.

En las "CMOS" la transformación del fotón de luz para convertirse en carga eléctrica, se efectúa en el mismo "casillero" del píxel y al final es en donde existe el convertidor analógico a digital.

 

 

 

 

 

 

 

 

 


En estos dos procedimientos, acarrean más cantidad de ruido las "CMOS"  respecto a las "CCD", en lo concerniente a tomas de "Largas Exposiciones", 

En las "CCD" se produce más calor, por la energía consumida en el proceso del salto, etc, pero en las cámaras para  Astronomía se soluciona con software, que rebaja hasta -30ªC el calor producido respecto a la temperatura ambiente, sin embargo es siempre mejor enfriar el sensor sea del tipo que sea, es por esto el pequeño ventilador en la cámara que construí. 

En cuanto a la descarga de la información es igual en las dos, la información se descarga píxel por píxel uno detrás de otro por orden de fila, ver figura abajo, y la información se pasa en digital en el registro vertical a la computadora.

 

 

Ya conocimos el espectro electromagnético en el apartado anterior. Ahora veremos que cada sensor responde de una manera distinta a las diferentes longitudes de onda del espectro, así como la hacia película fotográfica, esto se expresa con el termino “QE”:

 

“QE” Eficiencia quántica: expresado en %, nos indica que cantidad de luz es realmente captada por la cámara en una longitud de onda determinada. Una cámara  con mayor eficiencia  y que cubra un rango mayor de longitudes de onda, será sin duda la mejor. Si vamos a realizar  tricromía “imágenes en color” será necesario que el chip CCD tenga una buena respuesta a las 3 bandas: (azul, verde y roja).

    

Las cámaras actuales tienen también buena sensibilidad al infrarrojo cercano, esto es provechoso, ya que muchos objetos de cielo profundo emiten en esta longitud de onda. En esta gráfica podemos ver la comparación de eficiencia cuántica de dos modelos de CCD diferentes, como puede verse, la opción azul (KAF -3200ME), no solo tiene mayor eficiencia quántica, sino más rango en los dos extremos del espectro.

 

 

El término QE no sólo contiene la información relativa a la eficiencia cuántica del detector, sino también la referente a las eficiencias de transmisión del telescopio, filtros y óptica de la cámara.

 

Esto en el caso de las cámaras con sensor en blanco y negro, la separación de los colores la hace el aficionado tomando tres imágenes, una con un filtro de cada color y luego integrarlos digitalmente para obtener una imagen en color a esto lo llamamos “tricromía”.

 

SENSORES A COLOR

 

En las cámaras actuales existen dos técnicas para captar el color en el chip. En la primera se utilizan tres capas de sensores, cada una provista de un filtro del color primario, como la película fotográfica en color, de manera que cada capa aporta la información necesaria para reconstituir posteriormente el color.

 

El segundo sistema consiste en una única capa formada por un mosaico de 3 píxeles, cada uno de los cuales está provisto de un filtro de color diferente. Sin embargo, de esta manera solo se aprovecha una parte de los píxeles para cada color, y mediante un proceso de interpolación que ocurre en el programa de la cámara se reconstruyen los colores y se restituye la resolución teórica. La sensibilidad de los chips en color se nos muestra en tres curvas, una para cada serie de píxel, ver figuras de abajo. 

 

 

 

 

Una de sus ventajas es que se puede separar la señal electrónica que viene de los píxeles rojos solamente, o de los azules, etc, y trabajar solo con esa como si usáramos un filtro, con la ventaja de hacerlo tomando una sola imagen en colores, esta separación la hacen los programas, la desventaja es que no podemos modificar la curva sino trabajar con la que ya tiene cada píxel, vemos en la imagen de arriba que la curva de los píxeles azules bajan su QE en 600 manómetros, pero en los 700 (infrarrojo cercano) vuelve a subir, incluso siendo mas sensible al infrarrojo en los 850 nm que al al mismo azul, pero en este caso ellos agregan el filtro infrarrojo para que esta parte del espectro no entre.

 

La eficiencia quántica un ningún sensor sea CCD o CMOS es rigurosamente uniforme en toda la superficie, pero esto se corrige con las tomas de campo plano llamadas flat”.

 

FLAT: Es una imagen que se obtiene tomando exposiciones de Luz distribuidas uniformemente (llamadas también imágenes campo plano), bien sea de la cúpula del telescopio iluminada por una lámpara (dome flats), del cielo al atardecer o amanecer (twilight flats) o del cielo nocturno en zonas donde no se detecten estrellas (sky flats) con esto tenemos una imagen donde se ven los sucios del sensor y las desuniformidades y esta imagen se la restamos a la imagen astronómica y con esto los defectos introducidos por el sensor.

 

CORRIENTE DE OSCURIDAD: representa el número de electrones generados por la cámara por unidad de tiempo, normalmente debidos al ruido térmico,  cuando un sensor esta en funcionamiento la misma agitación térmica de los electrones en el circuito de las cámara, van a generar una señal en el chip, aunque este no este expuesto a la luz. Esta varía mucho con la temperatura, cayendo a la mitad cada vez que  la temperatura desciende unos 5 grados. Por esta razón se enfría el chip, pero para minimizar aun mas este problema se realizar una serie de tomas oscuras, o sea imágenes con el telescopio tapado para que no entre nada de luz, con el mismo tiempo de exposición y a la misma temperatura que las imagenes que vamos a realizar, para posteriormente restar dichas tomas oscuras a las imágenes, esto se hace con el programa IRIS en el menú: PROSSESING/SUBTRACT, a estas tomas se le llama DARK o CUADROS OSCUROS. El control de temperatura permite regular la temperatura de la cámara de  manera que es posible utilizar durante toda la noche  los mismos darks.


El enfriamiento casi siempre se obtiene con una CELULA PELTIER que es un sistema de refrigeración termoeléctrico, aunque yo use solo un ventilador como mostré en la construcción de mi cámara.

 

CAPACIDAD ELECTRONICA: Es la cantidad máxima de electrones que un píxel  puede captar antes de saturarse. Píxeles de mayor tamaño  tienen mayor capacidad para almacenar electrones. Para píxeles muy pequeños este valor será  más bien bajo, lo que provocara que partes más brillantes de la  imagen queden saturadas antes de que otros detalles débiles fueran captados. Esto es muy dañino para la fotometria, ya que una estrella débil necesita mas cantidad de tiempo para captarse que una brillante, y la lectura de la brillante queda parada porque el sensor ya no acumula mas luz en los píxeles correspondientes a la estrella brillante, pero sigue acumulando en la estrella mas débil con lo que se distorsiona el mapa de luz y no se puede usar el brillo de una para conocer el de la otra.

 

En el caso de que no necesitemos captar tanto detalle se puede solventar con modo que se conoce como BINNING: es una modalidad para operar el CCD de modo que no se sature tan pronto, consiste en usar varios píxeles trabajando en conjunto para funcionar como un píxel mas grande y así no saturarse con tan pocos electrones, cuando las Webcam la cambiamos de resolución de 352 X 288 a 140 X 120 etc. el programa utiliza varios píxeles para actuar como uno solo, esta trabajando de modo binning. Pero se pierde resolución porque los píxeles se vuelven más grandes. Si no queremos perder resolución hacemos tomas con exposiciones que no lleguen a la saturación y sumarlas todas, esto se hace en el programa iris menú PROSSESING/ADD.

 

Siguiente

 

Hosted by www.Geocities.ws

1