En el programa de radio «Data is in the Air» de esta semana, se exploró un tema de gran importancia en el ámbito tecnológico: el desarrollo de la Inteligencia Artificial (IA). Esther Morales, socia de PiperLab, Enrique Polo, VP de Salesforce Iberia, y Luis Vicente Muñoz, CEO de Capital Radio, compartieron sus perspectivas sobre los retos, desafíos e incertidumbres que esta tecnología plantea para el futuro.
Uno de los temas que se abordó fue la regulación de la Inteligencia Artificial, necesaria cada vez más, sobre todo con la llegada de un nuevo concepto de “superinteligencia artificial”, que trasciende a la capacidad humana:
Ética de la IA
«La IA está diseñada y programada por los seres humanos, pero puede llegar a superar nuestra propia inteligencia». Este avance plantea interrogantes sobre el alcance y las implicaciones éticas de una inteligencia que excede los límites de la comprensión humana.
En cuanto al estado actual de la regulación, se destacó las diferencias entre potencias como China, Estados Unidos y Europa. Enrique hizo hincapié en las diferencias existentes en cuanto a la propiedad de los datos en distintos países. “En China, la propiedad de los datos recae en el gobierno chino, mientras que, en Estados Unidos, las grandes tecnológicas tienen el control». En la Unión Europea, se está buscando una regulación que se enfoque en el comportamiento ético.
Data Protection Officer
Esther destacó que es necesario supervisar de cerca la información que se genera y que es la figura de los Data Protection Officers (DPO) los que jugarán un papel fundamental a la hora de asegurar la privacidad y protección de los datos en un entorno cada vez más impulsado por la IA.
Otra reflexión interesante de Enrique fue la posibilidad de que la IA se consolide como un derecho universal. A medida que la IA continúa avanzando y desempeñando un papel cada vez más importante en nuestra sociedad, surge la pregunta de si todos los individuos tendrán acceso equitativo a sus beneficios y oportunidades.
Explicabilidad
Por último, Esther compartió su experiencia con el desarrollo de proyectos de “caja negra”, donde los modelos eran difíciles de comprender y se centraban solo en los resultados sin cuestionar que ocurría en el procesamiento de datos. Sin embargo, ahora se está impulsando el uso de modelos explicativos, centrándose en comprender por qué se obtiene un determinado resultado.
Resulta crucial reflexionar sobre cómo se establecerán estas regulaciones de la IA, ya que determinarán las reglas del juego en el tablero económico y social. La manera en que se aborden estos desafíos tendrá un impacto significativo en el futuro de nuestra sociedad y en la forma en que interactuamos con esta tecnología emergente.
Puedes escuchar la entrevista completa aquí: