Inteligencia artificial: explorando la frontera entre lo posible y lo real

La inteligencia artificial sigue empujando la frontera de lo posible hacia nuevas cotas: asistentes personales, coches que circulan sin conductor, diagnósticos médicos… Entrando imperceptiblemente en la esfera de lo cotidiano. Por eso debemos entender cuáles son las limitaciones de unos algoritmos que toman el mundo como laboratorio y cuál el contexto en el que podemos aplicarlos.

Lo primero que uno debe saber es que no todos los algoritmos son creados igual. En algunos casos son el resultado de aplicar un método deductivo buscando explicar el mundo que nos rodea, mientras que en otros se aplican métodos inductivos para predecirlo. A esto hay que añadir otra dimensión: la capacidad de generar un proceso de retroalimentación continuo.

En la intersección entre métodos inductivos y retroalimentación continua, surgen algoritmos capaces de mejorarse a sí mismos; que aprenden de forma autónoma – con o sin supervisión – para conseguir mejores predicciones. Este es el terreno de la Inteligencia Artificial.

La datificación de nuestro entorno nos ofrece la posibilidad de aplicar esta inteligencia con fines predictivos. Su precio: perder parte de nuestra capacidad de explicarlo. Quizá no importe que no podamos explicar si somos capaces de predecir bien. Sin embargo, qué pasa si el algoritmo deja de funcionar, si genera sesgos, si es amante del riesgo, si sus resultados no se pueden verificar… o qué significa, al fin y al cabo, predecir bien.

  • Caducidad de los algoritmos. Uno de los ejemplos más conocidos de la caducidad de un algoritmo es el caso de Google flu trends. Durante un tiempo Google fue capaz de anticipar brotes de gripe con más precisión, más rápido y más barato que el instituto de salud americano. Sin embargo, con el tiempo Google flu trends perdió su efectividad.  Una explicación plausible es que «murió de éxito» porque una vez que la revista Nature publicó su impresionante logro, se popularizó… y la calidad de los datos se vio afectada. Sea como fuere, un algoritmo que funcionaba dejo de funcionar.
  • Sesgo heredado en la muestra. Al principio el algoritmo necesitará ser entrenado a partir de una muestra de datos. Este proceso determinará su evolución futura. Si los datos están sesgados, el algoritmo también lo estará. Supongamos que una empresa quiere encontrar un candidato idóneo para cubrir una vacante. Para entrenar al algoritmo la empresa utiliza datos históricos de sus empleados relacionando contrataciones pasadas con su posterior rendimiento en la empresa. Pero si en el pasado hemos contratado, por ejemplo, un porcentaje desproporcionado de varones, el algoritmo evolucionará con este sesgo y seguirá recomendando varones en futuras contrataciones. En otras palabras, el algoritmo heredará a través de los datos de entrenamiento discriminaciones del pasado.
  • Reproducibilidad de los resultados: Desde hace un año la polémica está servida en el ámbito de la Psicología. La mayor parte de los resultados encontrados en distintos experimentos publicados en las más prestigiosas revistas del mundo no han podido ser reproducidos. Existen múltiples explicaciones para este alto porcentaje. Por ejemplo, es posible que faltase información relevante acerca de las condiciones en las que se creó el experimento o sencillamente que el investigador en su afán de buscar un resultado sorprendente generase un sesgo involuntario. Puede incluso que los métodos (P-Value) para validar su reproducción no fueran los adecuados. En cualquier caso, una vez generado un resultado será difícil determinar su validez por medio de su reproducibilidad.
  • Actitud frente al riesgo en los algoritmos: No dejaría de ser irónico que Gary Kasparov hubiera perdido contra Deep Blue debido a una fallo en su programación que generó un movimiento aleatorio sembrando el desconcierto de su oponente. Sea cierto o no, lo que sí que nos dice es que Kasparov jugaba la baza de la  predictibilidad de un rival que ofrecía siempre una respuesta con un riesgo calculado.  Y aquí surge la pregunta de cómo gestionan el riesgo los algoritmos en el mundo real. Por ejemplo, ¿Serán los algoritmos que guiarán nuestros vehículos adversos al riesgo? Imagínense la escena: plena hora punta y un vehículo sin conductor dando vueltas a una rotonda sin ser capaz de salir de ella.
  • Evaluación de los algoritmos. Cuando se trata de evaluar si una predicción es buena o mala, generalmente utilizamos su grado de precisión para calificarla en uno u otro lado. Sin embargo, esto esconde una trampa: la paradoja de la precisión. Para ilustrarlo supongamos que queremos construir un modelo para predecir el fraude. Pongamos que sabemos que de cada cien mil transacciones se produce un fraude. Bueno pues si queremos predecir con una alta precisión si una transacción es fraudulenta bastaría con crear un modelo que considere que nunca se produce fraude. Nuestra precisión, medida como número de aciertos, será superior al 99% pero nuestro modelo será malo.

Estos ejemplos sirven para mostrar algunos de los retos que afrontan los algoritmos en torno a la calidad de los datos, a la selección de la muestra o de modelos. De ello se deduce que siempre habrá hueco para un poco de arte en la emergente disciplina del científico del dato, que será necesario introducir mecanismos que permitan auditar los algoritmos… Y lo que es más importante, que será necesario discernir en qué contexto utilizarlos.

Conocer sus limitaciones es importante porque a medida que la inteligencia artificial vaya ganando presencia en nuestras vidas, sus implicaciones serán enormes. Por ejemplo, qué sucede si un vehículo controlado por un algoritmo genera un accidente o si un colectivo es discriminado del mercado laboral…

Hoy los algoritmos permanecen ocultos, disparando nuestra imaginación sobre lo que será posible, pero en algún momento tendrán que salir a la luz avivando un debate que ya resulta ineludible. Solo entonces podremos transformar lo posible en algo real de lo que todos nos beneficiemos.

fernando maldonado

 

 

 

 

Escrito por Fernando Maldonado, analista principal en Delfos Research

 

 

 

(Con la publicación de este post, Fernando colabora en la investigación del  proyecto «El olfato canino en la detección del cáncer» en el que trabaja José Luis Ruiz Cerdá junto con su equipo, en el Instituto de Investigación sanitaria La Fe, en Valencia)[/vc_column_text][/vc_column][/vc_row]

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Autor: Fernando Maldonado