Para muchos, una matriz es un lugar donde Neo escapaba de Elrond, antes de marcharse a su retiro dorado en Rivendell.  Sin embargo, las matrices son elementos matemáticos muy útiles, también en economía y empresa.

Su potencia radica en su simplicidad: contienen cajas (celdas) ordenadas por filas y columnas, y en estas celdas podemos guardar absolutamente lo que queramos.  A partir de ahí, el álgebra matricial y sus propiedades harán el resto para nosotros.  Un ejemplo de adolescencia es la resolución de sistemas de ecuaciones lineales, donde las matrices ordenan coeficientes, variables y parámetros, y nos proporcionan la solución como un vector, x.

Si sustituimos “variables” o “parámetros” en el lenguaje del álgebra, por “estimaciones de costes”, “gasto nacional del consumo”, “tipo impositivo”, “renta nacional”, en el lenguaje de la macroeconomía…entonces todo empieza a cobrar sentido.  Si además hablamos de cómo predecir en el tiempo el comportamiento del beneficio de una operación financiera utilizando modelos algebraicos dinámicos, el álgebra matricial cobrará mucho más interés, y los que la utilicen, quizás alguna bonificación al final del año.

Nuestro tercer personaje, el matemático de origen ruso Andréi Márkov, probablemente, no tenía intención de hacerse rico con sus cadenas, pero nos pueden ayudar ahora a nosotros.  Las cadenas de Markov determinan la probabilidad de un determinado suceso estadístico (estocástico) a partir de sus precedentes.  Si conocemos, por ejemplo, el valor que tuvieron las variables de un modelo económico hoy (tiempo t) y sus valores ayer, anteayer, etc. (tiempo t-1, t-2, etc.), podremos estimar lo que ocurrirá mañana (tiempo t+1).  No está nada mal.  La clave para cuantificar la memoria de estos procesos está en cómo ordenar la información que necesitamos en los modelos, y esto puede ser muy complejo en modelos económicos con muchas variables.

Pero aquí es donde el álgebra matricial puede ayudar, porque podemos ordenar toda la información en las cajas mágicas de nuestra matriz, A.  Está claro que A puede ser una matriz enorme.  Pensemos en un modelo de únicamente diez variables…una matriz de diez filas y diez columnas…una matriz de cien cajas.  Para ver qué ocurre mañana (t+1), tendríamos que multiplicar A por un vector que describe el valor de las variables hoy, v, de diez columnas…Para ver qué ocurre pasado mañana (t+2), multiplicarla entre sí, A2, y luego multiplicar por v, y así sucesivamente…parece bastante aburrido.  Para ver qué ocurre dentro de 25 días, tendríamos que obtener la potencia veinticinco de la matriz, A25, …el asunto pasa de ser aburrido, a ser engorroso.

No pasa nada: de nuevo el álgebra matricial acude al rescate.  Podemos convertir ese monstruo, A, de 100 cajas, en una matriz, D, donde solo tengo 10 elementos en la diagonal y el resto son cero.  Entonces, para ver qué ocurre dentro de 25 días, y calcular D25,solo tengo que elevar a 25 esos números de la diagonal (d125,d225,…,d1025 ), y el resto seguirá siendo cero.  Y así, podremos saber dónde invertir o cómo optimizar nuestro proceso, en función de datos disponibles y utilizando el álgebra matricial, e incluso hacerlo a muy largo plazo, si aprendimos a hacer límites en el infinitoD.

Si Elrond pensó que en su idílico valle las matrices no le perseguirían, se debió de llevar una gran sorpresa cuando, un buen día, el director financiero de la fábrica de hidromiel le pidió diagonalizar una matriz para resolver cadenas de Markov, y así prever la facturación en 20 años…Lo dicho, muchos lo intentamos, pero nadie escapa de una buena matriz, ni, por supuesto, de las matemáticas.  Así que mejor unirse a ellas que galopar en vano.

Origin of Markov chains | Journey into information theory | Computer Science | Khan Academy

Author

Dr. Alfonso Martinez-Felipe

Profesor/consultor en el Grado de Administración y Dirección de Empresas, Grado de Economía y Máster de Formación de Profesorado de la VIU.