Imagina años de investigación para desarrollar una tecnología que haga más fácil la vida de las personas y en la cual muchas de las mejores mentes de una generación se han dejado muchas horas. Supongamos que, en determinado momento, se llega a la solución de ese problema, ese programa informático, ese algoritmo que lo resuelve el 100% de las veces con la máxima perfección posible. ¿Se ha acabado ahí la historia?
Resulta que cuando le decimos a una máquina el problema que tiene que resolver, de manera inherente surgen circunstancias que nos envuelven en paradojas que hace que otras situaciones de fácil formulación queden fuera de la solución. Hace unos días leí un dilema ético irresoluble incluso para el más perfecto de los automóviles. Pensemos que los coches que se conducen automáticamente ya son una realidad perfecta, funcionan a las mil maravillas y se convierten en un vehículo de uso común. Por supuesto tú, querido lector, eres el propietario de uno de estos coches autónomos y vas un día por la carretera tan tranquilo, leyendo el periódico o algo similar, que para eso es automático. De repente, una serie de catastróficas desdichas hace que en tu camino se cruce un inoportuno grupo de 10 personas, con tan mala suerte (léase con tono de presentador de Impacto TV) que lo hacen de manera que no puedes frenar antes de arrollarlas. Por tanto, el coche, esa máquina sin fisuras a la hora de tomar decisiones, debe decidir entre dos de ellas: o arrolla al grupo de personas o se desvía y estrella el coche contra un muro provocando la muerte del conductor, es decir, tú.
Desde el punto de vista frío y objetivo, parece razonable pensar que la segunda es mejor opción que la primera ya que se reduce el número de víctimas del accidente y en el peor de los casos muere solamente una en vez de 10. Por otro lado, dado que fue esta persona la que pagó para comprarse el coche y la que conducía, no parece del todo justo que sea una decisión de su propio coche la que acabe de manera fatal con su vida.
Podemos pensar en algún caso menos extremo e imaginar que en vez de un grupo de 10 personas es una moto que se cruza en tu camino. No hace falta llegar al escenario de fallecimiento para encontrar paradojas muy difíciles de resolver: si el algoritmo sabe que provocar el accidente con la moto tiene riesgo 0 para el conductor del coche y muy alto para el motorista y encuentra una solución en la que el conductor sufra un accidente grave pero no mortal, ¿debe tomarla?
Como casi siempre que se habla de algoritmos e inteligencia artificial, da un poco de vértigo analizar hasta qué punto nuestra vida puede estar condicionada por un modelo o por una serie de frías reglas lógicas ejecutadas en un procesador de manera perfecta según el problema que se planteó pero que abren dilemas morales y éticos de muy difícil solución.
Este post está basado en el trabajo publicado en Arxiv «Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?«