La Inteligencia Artificial está cambiando infinidad de aspectos de nuestras vidas, aunque todavía hay áreas que faltan por configurarse. Una de estas áreas es la explicabilidad de la IA, es decir, explicar cómo funcionan los modelos y por qué arrojan esos resultados.
Nacho Gutiérrez, fundador y CEO de Aygloo, nos visitó esta semana en “Data is in the Air” para profundizar y compartir más detalles sobre este aspecto de la IA, junto a Mónica Villas, docente de IA y coautora del “Manual de la ética de la IA”. También participaron en el programa Esther Morales, socia de PiperLab, y Enrique Polo, VP de Salesforce Iberia.
Aygloo es una empresa que pone a disposición de todo aquel que utilice Machine Learning su plataforma de explicabilidad para mejorar la toma de decisiones. Tal y como contaron Nacho y Mónica, los modelos de caja blanca, mucho más fáciles de utilizar y que empezaron a usarse cuando surgieron los primeros algoritmos, han pasado a convertirse en unos mucho más complejos denominados de caja negra.
Modelos caja negra
“Estos son modelos más rígidos donde la usabilidad no es fácil incluso si eres experto. Los modelos de caja negra son los más complicados de explicar, pero, sin embargo, son los que mejores resultados arrojan para la toma de decisiones. Es difícil utilizarlos sin saber lo que está pasando dentro”.
Por su parte, Esther explicó que “en PiperLab hay ocasiones en las que el cliente nos pide que le expliquemos cómo funciona el algoritmo que le estamos presentando, a la vez que saber qué variables se han utilizado y por qué tomar las decisiones de negocio que les proponemos”.
Regulación de los algoritmos
Además de la labor de Aygloo, una de las acciones que promueve la explicabilidad de los algoritmos es el trabajo de los organismos reguladores, que publican regulaciones que obligan a que los modelos estén mejor explicados.
“Muchas veces se espera a la multa y en realidad hay que pensar también en la parte reputacional a la hora se ser una empresa ética y transparente”.
Sesgos
En cuanto a los sesgos, Nacho y Mónica explicaron que muchas veces se trata de ser consciente de que se están teniendo esos sesgos y cómo pueden afectar a la toma de decisiones:
“La IA explicable tiene que ver dónde estoy teniendo el sesgo. La decisión humana final es la importante. El algoritmo no debería decidir solo”.
Por último, Nacho y Mónica contaron varios casos reales de aplicación de Aygloo. Uno de los más interesantes fue el aplicado al mundo periodístico, la herramienta es utilizada para que los redactores puedan identificar rápidamente si una noticia es falsa o no y la razón, permitiendo ahorrar tiempo.
Si quieres, puedes escuchar la entrevista completa aquí.