Una vieja chanza de la
estadística dice que los científicos aplicados creen en la distribución normal
porque piensan que es un hecho de la matemática, mientras que los matemáticos
creen en ella porque se piensan que es un fenómeno aceptado en la ciencia aplicada.
Tengo la impresión de que algo similar pasa con los así llamados
“supuestos clásicos” en econometría. Los estudiantes y practicantes tienen a
darle importancia porque creen que es algo que los econometristas teóricos
juzgan relevante, y estos últimos parecen respetarlos porque creen que es algo
que a los economistas aplicados les es importante. ¿Son los supuestos clásicos
algo relevante a la teoría o a la práctica de la econometría? Se agrega a esta
disquisición una tercera dimensión: puede que sea cierto que estos supuestos (y
el modelo al cual conducen) sean relevantes en un sentido pedagógico; quizas es
mas útil comenzar por una estructura simple y no necesariamente realista, y
luego pasar a alguna mas compleja y posiblemente mas apropiada para la
realidad. Más o menos por las mismas razones que la física clásica empieza con
el poco realista “movimiento rectilíneo uniforme”, para luego construir un
castillo que conduce a la física clásica y tal vez a la mecánica cuántica.
Mas allá de estas disquisiciones, el grueso de la práctica
econométrica se basa en la estimación mínimo cuadrática del modelo lineal,
usando herramientas estándar (como los estadísticos “t”) a fines de evaluar
hipótesis simples o construir intervalos de confianza. Los economistas tenemos
una relación casi atávica con esta simple estructura, y siempre que parecio que
la íbamos a abandonar, algún evento nos devolvió al vientre materno. Cuando los
modelos macroestructurales amenazaron al modelo simple estimado por MCO, los
vectores autorregresivos (estimados ecuación por ecuación por MCO) nos
devolvieron a la realidad. Misma cosa con la “revolución de credibilidad”
(encabezada por Joshua Angrist y sus coautores) que sugirió que utilizar
modelos mas complejos que el combo “modelo lineal / OLS” era inútil como
esterilizar un cuchillo a fines de asesinar a un tipo, en el sentido de que
cualquier sofisticacion econometrica tiene un impacto menor (si alguno) en
comparación con prestar atención a la estructura de identificación del problema
en cuestión.
Tengo la impresión de que chequear los supuestos clásicos es
como verificar si en la practica se da el movimiento rectilíneo uniforme de la
secundaria. Es mas seguro pensar que no. De modo que la preocupación no es si
se cumplen o no (no se cumplen) sino cuales son las consecuencias,
cuantitativas y cualitativas, de que no se cumplan. Hacer un test de
heterocedasticidad en un corte transversal es mas o menos como hacerle un test
de embarazo a un tipo: ya sabemos la respuesta antes de hacer el test (hay
heterocedasticidad). Entonces, la utilidad de un test de heterocedasticidad no
es en ver si simplemente la hay o no, sino si existe algún patrón de
heterocedasticidad que sea relevante evaluar desde un punto de vista económico,
quizás en términos de heterogeneidad, es decir, ver a la presencia de
heterocedasticidad no como una patología sino como un fenomeno conceptual
relevante. De esto mismo se dio cuenta David Hendry casi 30 años atrás en
términos de la autocorrelacion: la pregunta de si hay autocorrelacion o no no
es relevante en si misma, sino desde un punto de vista de incorrecta
especificación dinámica, de modo que la presencia de autocorrelacion no debería
conducir a “corregir la autocorrelacion” sino a re-pensar la estructura
dinámica del modelo, cuya mala especificación conduce a la autocorrelacion.
Este es el gran aporte a la causa de la así llamada escuela de econometría
dinámica.
El pragmatismo vigente se basa en que hacer las cosas bien es
estimar consistentemente los parámetros de interés y luego poder hacer
“inferencia valida”. De ahí que, mayoritariamente, la profesión haya gravitado
al método de MCO acompañado de un estimador robusto de la varianza, como el de
White que es consistente haya heterocedasticidad o no. En este marco, ¿Qué rol
cumple el supuesto de normalidad? ¿Y el de heterocedasticidad? ¿Y el de
linealidad? El de normalidad, a nadie le importa si va a confiar en una teoría
asintótica. El de heterocedasticidad tampoco ya que el estimador MCO y el
estimador robusto son consistentes independientemente de este supuesto,
precisamente. ¿Y el de linealidad? Vamos, con un R cuadrado tan bajo (común en
economía), ajusta tan mal una recta como cualquier curva suave, por compleja
que parezca.
Aquí coincido con el reciente texto de Bruce Hansen, en el
sentido de que “chequear los supuestos” es importante en la medida en que las
hipótesis nulas y alternativas detrás de los supuestos sean relevantes desde un
punto de vista económico y no estadístico. En este marco, la pregunta de
heterocedasticidad es relevante si sugiere heterogeneidad, la de correlacion
serial si apunta a una dinámica mas rica, y la de no-normalidad si habla de no
observables asimétricos o de colas pesadas, como es de interés en finanzas.
Quizas haya llegado la hora de abandonar los supuestos clásicos,
y con ellos el Teorema de Gauss Markov. A la larga, las consecuencias de que
los supuestos clásicos no valgan no parecen ser terriblemente graves, y las
ganancias de que se cumplan son bastante pobres (como pobre es el Teorema de
GM, como discutiésemos anteriormente). Quizas en algún momento haya reales
ganancias de eficiencia en explotar las “violaciones” a los supuestos clásicos,
es decir, acciones tales como implementar el método de mínimos cuadrados
generalizados bajo heterocedasticidad. Pero así como están las cosas, la
estructura pedagógica de “modelo lineal bajo los supuestos clásicos” parece
darse de patadas con la practica habitual econométrica.
¿No
habrá llegado la hora de una nueva forma de enseñar econometría?
No hay comentarios:
Publicar un comentario