Plume of ENSO Models Analysis for June, July 15, 2015
Posted: Tue Aug 18, 2015 9:42 pm
Recapturando los ultimos informes, en la eventualidad de que el otro foro deje de funcionar.
Julio 17, 2015
Siguiendo el mismo formato de análisis de los meses previos, para facilitar la comparación a continuación el análisis de los modelos de predicción del ENSO para el mes de junio.
Nuevamente, parece que los modelos de predicción del ENSO, son revisados, la mayor parte del tiempo, todos los meses. Desconozco cual pueda ser el motivo. Pero el que la revisión sea mensual, hace un tanto más complicado evaluar los modelos en términos de precisión y/o ausencia de sesgo (bias).
Para hacer el análisis utilicé más de 15 trimestres, comenzando en Abril-Mayo-Junio (AMJ) del 2014. Esto para tener al menos una muestra, “por conveniencia”, de al menos 15 trimestres (overlapping).
Lo primero que hice fue analizar los modelos en tres grupos: Estadísticos (overall), Dinámicos (overall) y todos los modelos (overall). Esto con la idea de comparar los tres grupos. Si el tiempo me lo permite, podría ir a los dos modelos más populares y analizarlos de forma individual.
Quiero indicar, que este análisis, está fundamentado mayormente por estadística descriptiva. Por falta de tiempo y porque esto es más que un “hobbie” no entro en análisis más profundo. Aun así, los resultados son interesantes. Muy importante, se incluye en este análisis los ajustes al ONI. Lo que hace difícil ahora comparar este informe con el del mes anterior.
Comparación de promedio con valor real del ONI: Margen de Error
Estadísticos- Es interesante, que aunque la opinión tiende a favorecer los modelos dinámicos, aun los estadísticos siguen siendo los más precisos, sobre los dinámicos. Los márgenes de error se mueven entre ± 0.20 C, según el MAD. Considerando que a partir de valores que sobrepasan los +0.5C son significativos, podríamos indicar que la precisión de los modelos estadísticos, al presente, no luce mal pero en los últimos trimestres pareciera que inician una tendencia a subestimar la temperatura. En otras palabras, que la temperatura va subiendo a una velocidad mayor que los modelos estadísticos están prediciendo. Al introducir los nuevos cambios al ONI, según refleja el RSFE, los modelos estadísticos reflejan sesgo. En un principio estaban sobreestimando el ONI, ahora parece que el sesgo va en la otra dirección, están subestimando el ONI. Es importante señalar que con el nuevo ajuste con el mes de julio presenta ahora las predicciones algo más agresivas que el informe anterior colocando el ONI cerca de +1.5 C (entrada a Niño fuerte) a partir del trimestre SON; permaneciendo así para DJF. En otras palabras, por primera vez predicen Niño fuerte.
Dinámicos- El error de precisión de los modelos aumentó un poco a cerca de ± 0.35 C con respecto al valor real. Esto representa una pérdida en precisión de +0.05 C en mejor precisión que el mes pasado (esto con los ajustes al ONI), de acuerdo al MAD. Los márgenes de errores aún no están distribuidos de forma aleatoria entre los errores positivos y negativos. Cuando esto ocurre implica que las predicciones tienen “bias”. Esto quiere decir que todavía hay más periodos donde se ha sobreestimado la temperatura. No obstante, ya aparecen los primeros indicios de que la tendencia a subestimar la temperatura está dando señales de aparecer, al igual que los estadísticos. También, el margen de error en los últimos trimestres se ha reducido. Comparado con el informe de junio, los modelos dinámicos siguen siendo más agresivos que los estadísticos y por primera vez predicen un niño fuerte a partir de JAS.
“All Models” – Al igual que en los dinámicos, la precisión es muy similar, según refleja el MAD. Los márgenes de error se mueven entre ± 0.34 C. Tampoco los puntos están distribuidos aleatoriamente, por tanto los modelos tienen “bias”. Al igual que los dinámicos, el “bias” está concentrado hacia la sobreestimación del ONI. Llama la atención que en los periodos más recientes, la precisión no ha sido consistente (ni para mejorar ni para empeorar). En cuanto al “bias” llama la atención que al igual que los estadísticos y dinámicos, lo que antes era una tendencia a sobreestimar ahora reflejan una tendencia a subestimar.
Dispersión de los resultados
Dinámicos- La dispersión entre los resultados mostrados por los modelos dinámicos continua amplia pero mejor que en análisis previos. Se mantiene en más de 0.5 C hasta a partir del trimestre de DJF, donde aparece por debajo de los +0.5 C/ Es decir, el consenso entre los modelos dinámicos es menor a partir de ASO del 2015 hasta NDJ del 2016. Así que parece que aunque menor, aún hay incertidumbre hacia el otoño y diciembre.
Estadísticos- Muy interesante que la dispersión comienza a aumentar a partir de SON, pero todavía se mantiene por debajo de los modelos dinámicos y también menor a +0.5 C a partir de DJF 2016. Podría decirse, que aunque no robusta, en cierto grado el consenso de los modelos estadísticos parece ser mejor que en los modelos dinámicos.
Overall- La dispersión entre los resultados mostrados por los modelos “overall es mayor de 0.50 C, a partir del trimestre SON, hasta el trimestre DJF que es menor de +0.5 C; pero al igual que los otros dos grupos de modelos, no parece ser ya tan amplia. El consenso entre los modelos “overall” es muy parecido al de los modelos dinámicos.
Tendencias
Dinámicos- Tendencia a mantenerse dentro de un evento de Niño fuerte a partir del trimestre MJJ y llegando a 1.5 C o más (Niño fuerte) a partir del trimestre JAS. Más agresivo que las predicciones anteriores.
Estadísticos- Tendencia a reflejar un comportamiento ahora a Niño fuerte a partir de SON, más tardío que los Dinámicos. También más agresivos que en el mes anterior.
“All Models”- Más agresivo reflejando un evento de Nino fuerte a partir del trimestre JAS, igual que los dinámicos.
En fin, cuando se comparan los tres grupos, los resultados parece que por primera vez, los tres grupos de modelos de predicción se están “alineando” hacia la predicción de un evento fuerte del Niño. Solo los diferencia, el momento en que podría ocurrir. En cuanto a precisión, por ahora los modelos estadísticos llevan la delantera. Con respecto a menor “bias”, los estadísticos siguen siendo también mejores. No obstante, ese escenario puede cambiar según avanzan los meses, pues el consenso de los tres grupos es a ser más agresivos con el ENSO.
Lo más sobresaliente en el último informe de los modelos de predicción del ENSO es que presentan un patrón más agresivo hacia la permanencia de un evento del Niño y que ya los tres grupos predicen un evento de Niño fuerte, en el mejor de los escenarios un Niño moderado y el más probable y que pudiéramos llegan a un evento de Niño Fuerte. Por ahora parece que de ocurrir no sería hasta el trimestre JFM del 2016.
De nuevo, esto es solo un análisis sencillo de los modelos, hecho por un aficionado, con una muestreo por “conveniencia” y sin entrar en todos los parámetros que hay que investigar para llegar a conclusiones, que puedan considerarse confiables. Por tanto, esto no es un análisis científico, por lo que los resultados pueden tener un margen de error significativo. Por tanto debe solo verse como entretenimiento. Más bien, como con pocos datos, la minería de datos es una herramienta, que si se usa, se pueden obtener mucha información.
Para análisis oficial y creíble, refiérase a las fuentes que la NOAA usa en su informe y agencias pertinentes.
Julio 17, 2015
Siguiendo el mismo formato de análisis de los meses previos, para facilitar la comparación a continuación el análisis de los modelos de predicción del ENSO para el mes de junio.
Nuevamente, parece que los modelos de predicción del ENSO, son revisados, la mayor parte del tiempo, todos los meses. Desconozco cual pueda ser el motivo. Pero el que la revisión sea mensual, hace un tanto más complicado evaluar los modelos en términos de precisión y/o ausencia de sesgo (bias).
Para hacer el análisis utilicé más de 15 trimestres, comenzando en Abril-Mayo-Junio (AMJ) del 2014. Esto para tener al menos una muestra, “por conveniencia”, de al menos 15 trimestres (overlapping).
Lo primero que hice fue analizar los modelos en tres grupos: Estadísticos (overall), Dinámicos (overall) y todos los modelos (overall). Esto con la idea de comparar los tres grupos. Si el tiempo me lo permite, podría ir a los dos modelos más populares y analizarlos de forma individual.
Quiero indicar, que este análisis, está fundamentado mayormente por estadística descriptiva. Por falta de tiempo y porque esto es más que un “hobbie” no entro en análisis más profundo. Aun así, los resultados son interesantes. Muy importante, se incluye en este análisis los ajustes al ONI. Lo que hace difícil ahora comparar este informe con el del mes anterior.
Comparación de promedio con valor real del ONI: Margen de Error
Estadísticos- Es interesante, que aunque la opinión tiende a favorecer los modelos dinámicos, aun los estadísticos siguen siendo los más precisos, sobre los dinámicos. Los márgenes de error se mueven entre ± 0.20 C, según el MAD. Considerando que a partir de valores que sobrepasan los +0.5C son significativos, podríamos indicar que la precisión de los modelos estadísticos, al presente, no luce mal pero en los últimos trimestres pareciera que inician una tendencia a subestimar la temperatura. En otras palabras, que la temperatura va subiendo a una velocidad mayor que los modelos estadísticos están prediciendo. Al introducir los nuevos cambios al ONI, según refleja el RSFE, los modelos estadísticos reflejan sesgo. En un principio estaban sobreestimando el ONI, ahora parece que el sesgo va en la otra dirección, están subestimando el ONI. Es importante señalar que con el nuevo ajuste con el mes de julio presenta ahora las predicciones algo más agresivas que el informe anterior colocando el ONI cerca de +1.5 C (entrada a Niño fuerte) a partir del trimestre SON; permaneciendo así para DJF. En otras palabras, por primera vez predicen Niño fuerte.
Dinámicos- El error de precisión de los modelos aumentó un poco a cerca de ± 0.35 C con respecto al valor real. Esto representa una pérdida en precisión de +0.05 C en mejor precisión que el mes pasado (esto con los ajustes al ONI), de acuerdo al MAD. Los márgenes de errores aún no están distribuidos de forma aleatoria entre los errores positivos y negativos. Cuando esto ocurre implica que las predicciones tienen “bias”. Esto quiere decir que todavía hay más periodos donde se ha sobreestimado la temperatura. No obstante, ya aparecen los primeros indicios de que la tendencia a subestimar la temperatura está dando señales de aparecer, al igual que los estadísticos. También, el margen de error en los últimos trimestres se ha reducido. Comparado con el informe de junio, los modelos dinámicos siguen siendo más agresivos que los estadísticos y por primera vez predicen un niño fuerte a partir de JAS.
“All Models” – Al igual que en los dinámicos, la precisión es muy similar, según refleja el MAD. Los márgenes de error se mueven entre ± 0.34 C. Tampoco los puntos están distribuidos aleatoriamente, por tanto los modelos tienen “bias”. Al igual que los dinámicos, el “bias” está concentrado hacia la sobreestimación del ONI. Llama la atención que en los periodos más recientes, la precisión no ha sido consistente (ni para mejorar ni para empeorar). En cuanto al “bias” llama la atención que al igual que los estadísticos y dinámicos, lo que antes era una tendencia a sobreestimar ahora reflejan una tendencia a subestimar.
Dispersión de los resultados
Dinámicos- La dispersión entre los resultados mostrados por los modelos dinámicos continua amplia pero mejor que en análisis previos. Se mantiene en más de 0.5 C hasta a partir del trimestre de DJF, donde aparece por debajo de los +0.5 C/ Es decir, el consenso entre los modelos dinámicos es menor a partir de ASO del 2015 hasta NDJ del 2016. Así que parece que aunque menor, aún hay incertidumbre hacia el otoño y diciembre.
Estadísticos- Muy interesante que la dispersión comienza a aumentar a partir de SON, pero todavía se mantiene por debajo de los modelos dinámicos y también menor a +0.5 C a partir de DJF 2016. Podría decirse, que aunque no robusta, en cierto grado el consenso de los modelos estadísticos parece ser mejor que en los modelos dinámicos.
Overall- La dispersión entre los resultados mostrados por los modelos “overall es mayor de 0.50 C, a partir del trimestre SON, hasta el trimestre DJF que es menor de +0.5 C; pero al igual que los otros dos grupos de modelos, no parece ser ya tan amplia. El consenso entre los modelos “overall” es muy parecido al de los modelos dinámicos.
Tendencias
Dinámicos- Tendencia a mantenerse dentro de un evento de Niño fuerte a partir del trimestre MJJ y llegando a 1.5 C o más (Niño fuerte) a partir del trimestre JAS. Más agresivo que las predicciones anteriores.
Estadísticos- Tendencia a reflejar un comportamiento ahora a Niño fuerte a partir de SON, más tardío que los Dinámicos. También más agresivos que en el mes anterior.
“All Models”- Más agresivo reflejando un evento de Nino fuerte a partir del trimestre JAS, igual que los dinámicos.
En fin, cuando se comparan los tres grupos, los resultados parece que por primera vez, los tres grupos de modelos de predicción se están “alineando” hacia la predicción de un evento fuerte del Niño. Solo los diferencia, el momento en que podría ocurrir. En cuanto a precisión, por ahora los modelos estadísticos llevan la delantera. Con respecto a menor “bias”, los estadísticos siguen siendo también mejores. No obstante, ese escenario puede cambiar según avanzan los meses, pues el consenso de los tres grupos es a ser más agresivos con el ENSO.
Lo más sobresaliente en el último informe de los modelos de predicción del ENSO es que presentan un patrón más agresivo hacia la permanencia de un evento del Niño y que ya los tres grupos predicen un evento de Niño fuerte, en el mejor de los escenarios un Niño moderado y el más probable y que pudiéramos llegan a un evento de Niño Fuerte. Por ahora parece que de ocurrir no sería hasta el trimestre JFM del 2016.
De nuevo, esto es solo un análisis sencillo de los modelos, hecho por un aficionado, con una muestreo por “conveniencia” y sin entrar en todos los parámetros que hay que investigar para llegar a conclusiones, que puedan considerarse confiables. Por tanto, esto no es un análisis científico, por lo que los resultados pueden tener un margen de error significativo. Por tanto debe solo verse como entretenimiento. Más bien, como con pocos datos, la minería de datos es una herramienta, que si se usa, se pueden obtener mucha información.
Para análisis oficial y creíble, refiérase a las fuentes que la NOAA usa en su informe y agencias pertinentes.