Hace apenas un año, el 30 de noviembre de 2022, la empresa OpenAI lanzó al mercado la primera versión de ChatGPT, una aplicación web que permitía mantener conversaciones con una Inteligencia Artificial y que podía ser la base de múltiples usos relacionados con el procesamiento de lenguaje natural y la generación automática de contenido. Su aparición supuso un cambio de paradigma no solamente para cualquier empresa que tenga como objetivo realizar proyectos de IA sino para toda la sociedad, primero, por su facilidad de uso y, posteriormente, por las múltiples implicaciones que puede llegar a tener en la vida de todos como el impacto que puede llegar a tener en el mercado laboral, los sesgos y discriminación que puede ocasionar debido a los datos con los que ha sido entrenado, la privacidad o la seguridad en todos los ámbitos.
Todas estas implicaciones, de gran profundidad y que requieren de una reflexión por parte de todos, son la parte más visible de lo que supone este tipo de tecnologías. Por supuesto, en el ámbito empresarial, la adopción de estas herramientas también comprende una serie de planteamientos y decisiones estratégicas de cara a extraer el mayor valor de ellas sin que, en el medio plazo, nos veamos involucrados en situaciones no deseadas. Vamos a fijarnos en estos tres aspectos fundamentales: el hecho que los modelos LLM o los multimodales son caja negra, si utilizar modelos open source o servicios privados y, por último, cómo puede afectar la aparición de estos servicios al rol actual de los equipos de data science.
Modelos black-box / caja negra
El uso de modelos de inteligencia artificial conocidos como «caja negra», donde los procesos internos no son transparentes o fácilmente comprensibles, conlleva una serie de implicaciones estratégicas significativas para cualquier empresa.
Intrínseco a su naturaleza de modelos de caja negra, la falta de transparencia en el funcionamiento interno de los modelos de IA puede generar desconfianza entre los usuarios y los stakeholders. Asociado a esta potencial falta de transparencia, muchas jurisdicciones están introduciendo regulaciones que requieren explicabilidad en los sistemas de IA, sobre todo, en aquellos que puedan tener un impacto en derechos fundamentales de las personas. La opacidad en la toma de decisiones de IA puede llevar a resultados no éticos o sesgados, lo que podría dañar la reputación de una empresa y su relación con los clientes. Las empresas necesitan ser proactivas en el monitoreo de sesgos y en la implementación de prácticas éticas de IA, por lo que deben asegurarse de que su uso de la IA se alinee con estas regulaciones y con la visión humana de la compañía, lo que podría requerir un cambio hacia modelos más transparentes o el desarrollo de capacidades para interpretar y explicar decisiones de IA.
Otro punto derivado de su falta de explicabilidad es que las decisiones basadas en modelos caja negra pueden ser arriesgadas si los resultados no son consistentemente predecibles o si los modelos no se han validado rigurosamente en escenarios diversos. Las empresas deben desarrollar prácticas robustas de gestión de riesgos para identificar, mitigar y prepararse para posibles fallos del sistema. Sin embargo, aunque la detección es posible, en el caso de utilizar además servicios de terceros, no está clara cuál es la mejor forma de prevenirlo.
Las empresas necesitan ser proactivas en el monitoreo de sesgos y en la implementación de prácticas éticas de IA, lo que podría requerir un cambio hacia modelos más transparentes o el desarrollo de capacidades para interpretar y explicar decisiones de IA.
Open Source vs «Models as a service»
La comunidad Open Source ha desarrollado modelos de lenguaje que, si bien son muy potentes, sobre todo en detecrminados casos de uso, de momento, no muestran la fiabilidad y la generalidad de aplicaciones que tienen los servicios como las plataformas de OpenAI. Un punto a considerar para la utilización de modelos Open Source se basa en que depender de modelos de IA que muchas otras empresas también pueden utilizar puede hacer más difícil para una empresa diferenciarse en el mercado. Una estrategia podría ser combinar la IA con conocimientos específicos del dominio o datos únicos para crear una ventaja competitiva.
Sin embargo, esto no es sencillo y cada compañía debe sopesar las siguientes dimensiones ahora de elegir la solución que mejor se adapte a su contexto:
- Coste y Escalabilidad: las APIs de proveedores como OpenAI suelen tener un coste asociado que escala con el uso, mientras que los modelos Open Source están disponibles de forma gratuita (siempre tenemos que revisar la licencia para no cometer ningún error en su uso). Sin embargo, el coste total de esta solución debe incluir el mantenimiento, la infraestructura y el personal necesario para operar y escalar modelos Open Source lo que, para casos individuales es probable que no se justifique y solamente si el uso del modelo va a ser muy intensivo podría tener sentido. También las empresas deben evaluar si la predictibilidad del gasto en una API de suscripción supera el costo potencialmente variable de operar una infraestructura propia para modelos Open Source.
- Experiencia Técnica y Recursos: utilizar una API comercial puede requerir menos experiencia técnica en comparación con la necesidad de tener un equipo especializado para implementar y mantener soluciones Open Source. Por ello, la empresa debe considerar su capacidad para atraer y retener talento que pueda trabajar con modelos Open Source y si esta inversión alinea con su estrategia a largo plazo.
- Personalización y Velocidad: los servicios de API comerciales pueden ofrecer menos flexibilidad para la personalización en comparación con los modelos Open Source, que se pueden modificar y ajustar a las necesidades específicas de la empresa. Aunque cada vez más aparecen servicios de fine-tuning, nunca será tan flexible como personalizar el modelo pero cada caso tendrá que evaluar si este balance entre velocidad y refinamiento compensa o no.
- Dependencia del proveedor: al elegir una API comercial, las empresas deben considerar el riesgo de quedar demasiado dependientes de un único proveedor para servicios críticos. Esto puede limitar la flexibilidad y la capacidad de cambiar a diferentes soluciones o proveedores en el futuro.
Perfiles profesionales: ¿es el fin del «hype» del data science?
La llegada de plataformas, como las de OpenAI o Anthropic (entre otros), y sus APIs ha democratizado el acceso a tecnologías de inteligencia artificial avanzadas. Esto puede significar que para ciertos proyectos de IA no se requiera necesariamente la intervención de un equipo con el rol de data scientist al que estamos acostumbrados, al menos no en la capacidad tradicionalmente asociada con el rol. Las APIs proporcionan herramientas potentes y listas para usar que pueden realizar tareas complejas de procesamiento de datos y aprendizaje automático con poco o ningún código personalizado, reduciendo así la barrera de entrada para las empresas y los desarrolladores individuales, sobre todo, en los proyectos que involucran Procesamiento de Lenguaje Natural (NLP).
Esto no implica que el rol del data scientist se vuelva obsoleto, sino que su enfoque puede cambiar. En lugar de dedicar tiempo a la implementación de algoritmos básicos de IA y a la gestión de la infraestructura necesaria para el entrenamiento y despliegue de modelos, los data scientists pueden centrarse en tareas de mayor nivel como el diseño de sistemas de IA más sofisticados, la mejora de la interpretación de los resultados de la IA, el trabajo en la ética y la gobernanza de la IA, y la garantía de que los sistemas de IA se alineen con los objetivos estratégicos de la empresa.
Esto no implica que el rol del data scientist se vuelva obsoleto, sino que su enfoque puede cambiar.
Asimismo, el hecho de que las herramientas de IA sean más accesibles no elimina la necesidad de comprender y gestionar adecuadamente los datos. La calidad y la integridad de los datos siguen siendo fundamentales para el éxito de cualquier proyecto de IA. Los profesionales de la ciencia de datos, por tanto, pueden necesitar reorientar sus habilidades hacia la ingeniería de datos, la gestión del ciclo de vida de los modelos de IA, y las estrategias para abordar los sesgos y garantizar la equidad y la privacidad en los sistemas de IA.