En cualquier foro actual sobre ‘análisis inteligente de datos’, ya sea en el ámbito divulgativo, profesional o académico/científico es muy frecuente, casi obligatorio, que haya alguna referencia hacia técnicas como los ‘Random Forest’ o el ‘Deep Learning’, que se promocionan como ´lo último’ y más novedoso para afrontar este tipo de retos.

Habitualmente, en los blogs, reseñas y artículos más visitados en la Web sobre estos temas, es frecuente que se aluda al fenómeno ‘Big Data’ y el valor de la información y la fiebre de los datos, la Inteligencia Artificial y el aprendizaje automático, algunas aplicaciones de diversos tipos, IoT (Internet of Things), Smart Cities, computación/internet cognitiva, ubicua, etc. Pero siempre, desde nuestro punto de vista, de una forma imprecisa, muy de ‘ciencia ficción’ y tremendamente alejada de las prácticas y conocimientos habituales en las empresas y otras entidades (sean del tamaño que sean).

En muchos casos se confunden o manejan de forma imprecisa conceptos básicos en Inteligencia Artificial como ‘aprendizaje supervisado y no supervisado’ y se da la falsa sensación de que las técnicas aludidas han surgido hace un par de años y son una revolución en cuanto a constituir un nuevo paradigma de la IA (en el sentido duro de Kuhn en ‘La estructura de las revoluciones científicas’).

Cuando en el año 2001 el profesor Leo Breiman (RIP[1]) publicaba su artículo ‘Random Forest’ el principal problema para implantar y usar estos ‘bosques aleatorios de árboles de decisión’ era la falta de potencia computacional. En los seminarios del BISC (Berkeley Initiative in Soft Computing, U. C. Berkeley) comentábamos con el profesor Breiman esta técnica y los aspectos formales eran exactamente los mismos que ahora, pero la capacidad computacional no, recordamos las anotaciones a mano que hicimos sobre el artículo original.

Análogamente, el ‘Deep Learning’ podría ser visto como un ‘bosque de redes neuronales clásicas’ (no se malinterprete esta trivialización), cuyos árboles son habitualmente Perceptrones Multicapa (años 50 del siglo pasado) y/o redes neuronales convolutivas o convolucionales y Neocognitrones (Prof. Fukushima, años 80), es decir modelos ‘clásicos’ en Inteligencia Artificial que ahora pueden ser mejor explotados gracias a la potencia computacional actual, por ejemplo usando Tensor Flow.

Es decir, hace 30 años usábamos estas técnicas de forma individual y de una forma más ‘cognitiva’ (los árboles de decisión se generan en base a la ‘entropía’ de los nodos y otros conceptos de teoría de la información) en nuestros viejos ordenadores que medíamos en ‘megas’, y ahora usamos bosques de miles de estos individuos (árboles o redes) y los usamos de forma estocástica o aleatoria (seleccionando aquellos individuos que mejor ‘clasifican’) con nuestras potentes computadoras cuyas prestaciones medimos en ‘teras’.

Desde nuestro punto de vista, se está muy lejos de usar estas técnicas de forma habitual y tenemos serias dudas de que sean tan potentes como a veces se divulga, la panacea de todos nuestros problemas de aprovechamiento inteligente de los datos masivos (muchos de ellos redundantes y superfluos) que se generan de forma ‘caótica’ en nuestra sociedad sobredigitalizada actual. Hay alguna aplicación llamativa, pero muchos problemas profundos y serios de predicción/pronóstico/estimación/prescripción (terremotos, enfermedades, guerras, puntos de inflexión económicos…) están lejos de ser afrontados de una forma satisfactoria.

En nuestro Máster de Big Data se proporciona un mapa completo de las herramientas y técnicas potencialmente útiles para este propósito y algunas de ellas se ven en detalle y de forma práctica.

 

[1] https://senate.universityofcalifornia.edu/_files/inmemoriam/html/leobreiman.htm

Author

José A. Olivas

Profesor del Máster en Big Data y Data Sciencie