lunes, 19 de enero de 2015

Mamá, mamá, mi modelo tiene heterocedasticidad (aporte tomado de Walter Sosa - Escudero)

Una vieja chanza de la estadística dice que los científicos aplicados creen en la distribución normal porque piensan que es un hecho de la matemática, mientras que los matemáticos creen en ella porque se piensan que es un fenómeno aceptado en la ciencia aplicada.
Tengo la impresión de que algo similar pasa con los así llamados “supuestos clásicos” en econometría. Los estudiantes y practicantes tienen a darle importancia porque creen que es algo que los econometristas teóricos juzgan relevante, y estos últimos parecen respetarlos porque creen que es algo que a los economistas aplicados les es importante. ¿Son los supuestos clásicos algo relevante a la teoría o a la práctica de la econometría? Se agrega a esta disquisición una tercera dimensión: puede que sea cierto que estos supuestos (y el modelo al cual conducen) sean relevantes en un sentido pedagógico; quizas es mas útil comenzar por una estructura simple y no necesariamente realista, y luego pasar a alguna mas compleja y posiblemente mas apropiada para la realidad. Más o menos por las mismas razones que la física clásica empieza con el poco realista “movimiento rectilíneo uniforme”, para luego construir un castillo que conduce a la física clásica y tal vez a la mecánica cuántica.
Mas allá de estas disquisiciones, el grueso de la práctica econométrica se basa en la estimación mínimo cuadrática del modelo lineal, usando herramientas estándar (como los estadísticos “t”) a fines de evaluar hipótesis simples o construir intervalos de confianza. Los economistas tenemos una relación casi atávica con esta simple estructura, y siempre que parecio que la íbamos a abandonar, algún evento nos devolvió al vientre materno. Cuando los modelos macroestructurales amenazaron al modelo simple estimado por MCO, los vectores autorregresivos (estimados ecuación por ecuación por MCO) nos devolvieron a la realidad. Misma cosa con la “revolución de credibilidad” (encabezada por Joshua Angrist y sus coautores) que sugirió que utilizar modelos mas complejos que el combo “modelo lineal / OLS” era inútil como esterilizar un cuchillo a fines de asesinar a un tipo, en el sentido de que cualquier sofisticacion econometrica tiene un impacto menor (si alguno) en comparación con prestar atención a la estructura de identificación del problema en cuestión.
Tengo la impresión de que chequear los supuestos clásicos es como verificar si en la practica se da el movimiento rectilíneo uniforme de la secundaria. Es mas seguro pensar que no. De modo que la preocupación no es si se cumplen o no (no se cumplen) sino cuales son las consecuencias, cuantitativas y cualitativas, de que no se cumplan. Hacer un test de heterocedasticidad en un corte transversal es mas o menos como hacerle un test de embarazo a un tipo: ya sabemos la respuesta antes de hacer el test (hay heterocedasticidad). Entonces, la utilidad de un test de heterocedasticidad no es en ver si simplemente la hay o no, sino si existe algún patrón de heterocedasticidad que sea relevante evaluar desde un punto de vista económico, quizás en términos de heterogeneidad, es decir, ver a la presencia de heterocedasticidad no como una patología sino como un fenomeno conceptual relevante. De esto mismo se dio cuenta David Hendry casi 30 años atrás en términos de la autocorrelacion: la pregunta de si hay autocorrelacion o no no es relevante en si misma, sino desde un punto de vista de incorrecta especificación dinámica, de modo que la presencia de autocorrelacion no debería conducir a “corregir la autocorrelacion” sino a re-pensar la estructura dinámica del modelo, cuya mala especificación conduce a la autocorrelacion. Este es el gran aporte a la causa de la así llamada escuela de econometría dinámica.
El pragmatismo vigente se basa en que hacer las cosas bien es estimar consistentemente los parámetros de interés y luego poder hacer “inferencia valida”. De ahí que, mayoritariamente, la profesión haya gravitado al método de MCO acompañado de un estimador robusto de la varianza, como el de White que es consistente haya heterocedasticidad o no. En este marco, ¿Qué rol cumple el supuesto de normalidad? ¿Y el de heterocedasticidad? ¿Y el de linealidad? El de normalidad, a nadie le importa si va a confiar en una teoría asintótica. El de heterocedasticidad tampoco ya que el estimador MCO y el estimador robusto son consistentes independientemente de este supuesto, precisamente. ¿Y el de linealidad? Vamos, con un R cuadrado tan bajo (común en economía), ajusta tan mal una recta como cualquier curva suave, por compleja que parezca.
Aquí coincido con el reciente texto de Bruce Hansen, en el sentido de que “chequear los supuestos” es importante en la medida en que las hipótesis nulas y alternativas detrás de los supuestos sean relevantes desde un punto de vista económico y no estadístico. En este marco, la pregunta de heterocedasticidad es relevante si sugiere heterogeneidad, la de correlacion serial si apunta a una dinámica mas rica, y la de no-normalidad si habla de no observables asimétricos o de colas pesadas, como es de interés en finanzas.
Quizas haya llegado la hora de abandonar los supuestos clásicos, y con ellos el Teorema de Gauss Markov. A la larga, las consecuencias de que los supuestos clásicos no valgan no parecen ser terriblemente graves, y las ganancias de que se cumplan son bastante pobres (como pobre es el Teorema de GM, como discutiésemos anteriormente). Quizas en algún momento haya reales ganancias de eficiencia en explotar las “violaciones” a los supuestos clásicos, es decir, acciones tales como implementar el método de mínimos cuadrados generalizados bajo heterocedasticidad. Pero así como están las cosas, la estructura pedagógica de “modelo lineal bajo los supuestos clásicos” parece darse de patadas con la practica habitual econométrica.

¿No habrá llegado la hora de una nueva forma de enseñar econometría?

No hay comentarios: