Translate

viernes, 31 de mayo de 2013

Como un bólido

Desde que vi el vídeo de Daniel López donde el asteroide se desplazaba centrado en la animación me pregunté como se hacía. Busqué por internet y descubrí que la solución la tenía en mi propia casa. Con EQMode se controlan las monturas de Synta y en la versión 27 se incluye una velocidad "custom" que con un sencillo procedimiento (que ya explicaré en el blog) se consigue seguir (si la puesta en estación es perfecta) a un objeto a lo largo de su trayectoria por el cielo sin que se mueva de la posición inicial de la imagen.

Lo probé ayer con el asteroide 1998 QE2 y comprobé que funciona a la perfección. La animación son 240 tomas de 20 segundas cada una y distanciadas otros 20 segundos entre cada una, unas tres horas de seguimiento del asteoide a lo largo de su recorrido por el cielo. La conversión de fit a bmp que ha hecho maximDL no me ha convencido mucho, ya que los puntos negros que acompañan al asteroide no aparecen realmente en la imágenes fits, no se a que es debida esta inclusión en los ficheros bmp.

La magnitud del asteoide ayer era de 11ª y esta noche alcanzará la 10ª.




El equipo el de siempre, C8 a f3,3 y mammut 429L

miércoles, 29 de mayo de 2013

Otra noche de novas y pruebas

Hace dos días me llegaba un juego de filtros visuales (amarillo, verde, azul, rojo) con los que intentaré realzar el contraste de alguna de las imágenes que intento capturar. Pensaba estrenarlos ayer con saturno, pero cuado vi como estaba la imagen sin filtro de color desistí de poner más filtro porque no había buena imagen para explotarla.

Lo mejor que pude sacar fue esta imagen de 100 segundos con el C8 y una barlow x3 (6000mm de focal) y la qhy5.



Pasé a reducir la focal y retomar la fotometría de estrellas. Comencé por buscar novas facilonas y encontré en la página http://www.rochesterastronomy.org/snimages/ que había una sobre la magnitud 14. A por ella lancé el telescopio y pude capturarla facilmente.



Volví a mirar sn2013am en M65 y comprobé que parece sobre la imagen menos brillante, no obstante la magnitud medida no parece haber bajado respecto a lo que medí hace unos pocos días.



A ver si el tiempo se estabiliza y podemos continuar con la campaña de variables.


domingo, 26 de mayo de 2013

De nuevo Panstarrs

La noche del jueves también pude capturar alguna imagen del cometa Panstarrs con el C8 más el reductor y poco después cambié al objetivo jupiter 11a para apreciar mejor el tamaño de la anticola.

El sensor de la mammut 429L necesita un limpiado a fondo ya que el soplido de la última vez solo despejó al sensor de la partícula más grande.







Tras esto cambié al objetivo fotográfico jupiter 11a (135mm de focal).





No deja de ser una imagen curiosa lo que la perspectiva nos presenta en el cielo estrellado.

Siguiendo la nova de Leo

La misma noche del jueves apunté el telescopio a M65 en Leo para echarle un vistazo a la supernova sn2013am. La supernova de M65 sigue distinguiéndose en el borde de la galaxia y se mantiene en una magnitud asequible a equipos medianos. Desde principios de mayo no podía observarla y ha bajado un cuarto de magnitud en este tiempo.

Ahora se situa sobre la magnitud 15.46R sin filtro alguno y usando focas bajo catálogo usno2.



Un nuevo ojo pequeño al cielo

El pasado jueves pude sacar el equipo a la azotea pra disfrutar de una observación compartida con la Luna. Pude probar una nueva combinación telescopio-ccd, en esta ocasión he probado otro objetivo fotográfico ruso.
El  nuevo objetivo fotográfico es de calidad contrastada, es el helios 44m2, un objetivo ruso de 58mm a f2.
Lo probé en fotografía ordinaria y la nitidez , luminosidad y perfección de color que ofrece, realmente hace honor a la fama bién ganada que tiene este objetivo entre los fotográfos amantes de los objetivos manuales.
Lo coloqué en el aro que gobierna los objetivos fotográficos en combinación con la ccd y enfoqué a M44, no pude centrar la combinación por problemas técnicos (el aro está en el taller de reparación para su perfeccionamiento).
Pude combrobar que la calidad de imagen astronómica es tan buena como la que ofrece el objetivo jupiter 11a (135mm).
El campo escogido es el que os muestro desde Guide.



Pasé la imagen por astrométrica para obtener los parámetros de campo y resolución que da dicha combinación.

Los valores hallados fueron los siguientes:
           Focal Length = 58.6mm, Rotation = -99.15°
           Pixel Size: 30.27" x 29.21", Field of View: 379.3' x 283.3'

Se obtiene un campo de 6 grados por 4 grados con esta combinación, alcanzándose magnitud 10ª con solo 30 segundos de exposición.

El campo observado es el que se muestra en Guide y las diferentes exposiciones van desde 15 segundos a 60 segundos.






Me queda buscar tranquilamente asterismos de este tamaño dignos de ser inmortalizados con esta combinación.

jueves, 9 de mayo de 2013

Determinación de extremos II

Siguiendo con la idea de obtener polinomios que se ajusten a los datos para calcular la pendiente de dicho polinomio y hallar el valor cero de la pendiente (lo cual indica que la curva ha pasado por un máximo o un mínimo), rebusqué por Internet y hallé el programa Tablecurve, el cual es todo lo que necesitamos para obtener la curva que se ajusta mejor a nuestros datos fotométricos. En el caso de estrellas eclipsantes con simetría perfecta o cuasiperfecta, basta usar el método de Kwee van Voerden para obtener un valor muy exacto, pero para curvas de estrellas pulsantes donde la simetría no es perfecta entre la subida y bajada no da muy buenos resultados.

Así que mi idea de derivada no era descabellada y aunque intenté escribir un programa en qbasic comprobé que ya existía todo lo que necesitaba.

El modelado escogido de la curva es por medio del algoritmo de Savitzky Golay, que consiste en ajustar una recta de regresión móvil (polinomio de grado 1) o un polinomio de grado 2, 4, etc... por mínimos cuadrados a los datos.

Los parámetros a combinar son los siguientes:

El número de puntos que usaremos para hallar la regresión. A más puntos implicados más suave es la curva que sale, pues los puntos dispares pierden fuerza frente a una mayoría homogénea. Ésto se ve en los siguientes gráficos, donde se han escogido 5, 10 y 15 puntos para hacer la regresión.





















































































Otra opción es cambiar el orden del polinomio de regresión (usar polinomios de segundo, cuarto grado, etc...). Así podemos ver lo que pasa al aumentar el grado de polinomio de ajuste. Aquí vemos la curva con 10 puntos y grado dos de polinomio.






























Y con 10 puntos y grado cuatro para el polinomio.






























Al aumentar el grado del polinomio aparecen más curvas que se ajustan mejor a los datos.

Otra opción es repetir la regresión varias veces, de modo que hacemos una segunda regresión sobre los datos obtenidos de la primera regresión, suavizándose cada vez más la curva resultante.

Aquí vemos un ajuste con una , dos y tres pasadas, manteniendo el número de puntos (15 puntos) en la regresión móvil y el mismo grado de polinomio de ajuste (cuatro).


































Partimos de que nuestro datos tienen una dispersión notable, por lo que más que ajustarse a todos los saltos que se deriven de la dispersión de los datos buscamos una curva "suave" que se ajuste a la tendencia "general" de la curva observada. Una vez que decidimos que un "grupo" de curvas se ajustan aceptablemente a los datos, podemos buscar la derivada de la curva para obtener el instante del extremo.

La curva de la pendiente (derivada) de la curva polinómica ajustada a los datos tiene un aspecto como la siguiente.





























Cuando la curva pasa por el valor cero tenemos el instante exacto del extremo de la curva. Dicho valor se puede obtener numéricamente.



El problema es que dicho valor va cambiando según los ajustes que modifiquemos, pero podemos hacer finalmente un ejercicio de estadística para calcular el valor medio de todas las curvas (o aquellas que no den muchos saltos por ajustarse demasiado a los errores de las medidas). 

En mi caso obtuve los siguientes valores:

Spline Savitzky Golay   19 points    order 4    passes 3     7.4865827
 Spline Savitzky Golay   19 points    order 2    passes 3     7.4865359 
Spline Savitzky Golay   15 points    order 2    passes 2     7.4861165
Spline Savitzky Golay   15 points    order 2    passes 3     7.4859521
Spline Savitzky Golay   12 points    order 2    passes 3     7.4866057
Spline Savitzky Golay   12 points    order 2    passes 2     7.4868928
Spline Savitzky Golay   12 points    order 2    passes 1     7.4867535
Spline Savitzky Golay   10 points    order 2    passes 1     7.4890655
Spline Savitzky Golay   10 points    order 2    passes 2     7.4883725
Spline Savitzky Golay   10 points    order 2    passes 3     7.4880479
Spline Savitzky Golay   08 points    order 2    passes 2     7.4901273
Spline Savitzky Golay   08 points    order 2    passes 3     7.4897913


El máximo oscila entre 7.486 y 7.490 , de estos valores podría calcular el valor medio y la dispersión ya que no existe una curva que podamos decir que es la verdadera. El coeficiente de ajuste R que da el programa para cada ajuste va variando (0.94, 0.95, ...)  y se aproxima a uno para polinomios de grado 4 , pero esos polinomios van siguiendo las dispersiones que podamos obtener al tomar las medidas por lo que no es fiable al 100% ese parámetro para elegir la "mejor" curva.

En general parece que usar polinomios de grado dos es más efectivo que el grado cuatro y que realmente debemos usar del orden de 8 a 15 puntos para obtener un valor promedio (si disparamos una foto cada minuto, el valor medio sale de 8 a 15 fotos, o lo que es lo mismo obtenermos un valor medio a intervalos de 8 a 15 minutos). Y sobre esos valores medios se va construyendo la curva suavizada.

En fin, ésto de los extremos está entre lo puramente científico y el arte del término medio. Al final nuestro ojo debe determinar que curvas son más "reales".

El programa tiene muchísimas opciones y yo poco tiempo de estudiarlo pero creo que es bastante efectivo para lo que nos interesa (encontrar extremos de conjunto de valores).

Como otros observadores en otras áreas astronómicas, quizás sea más relevante seguir los pasos para obtener medidas con dispersiones muy bajas (usar estrellas desenfocadas, una buena altura sobre el horizonte de la variable , etc...). Esto permitiría obtener curvas que no se distinguan apenas entre sí, dando un valor de extremo muy parecido todas ellas.