¿A quién decidirá matar tu coche autónomo en un accidente?

Imagina años de investigación para desarrollar una tecnología que haga más fácil la vida de las personas y en la cual muchas de las mejores mentes de una generación se han dejado muchas horas. Supongamos que, en determinado momento, se llega a la solución de ese problema, ese programa informático, ese algoritmo que lo resuelve el 100% de las veces con la máxima perfección posible. ¿Se ha acabado ahí la historia?

Resulta que cuando le decimos a una máquina el problema que tiene que resolver, de manera inherente surgen circunstancias que nos envuelven en paradojas que hace que otras situaciones de fácil formulación queden fuera de la solución. Hace unos días leí un dilema ético irresoluble incluso para el más perfecto de los automóviles. Pensemos que los coches que se conducen automáticamente ya son una realidad perfecta, funcionan a las mil maravillas y se convierten en un vehículo de uso común. Por supuesto tú, querido lector, eres el propietario de uno de estos coches autónomos y vas un día por la carretera tan tranquilo, leyendo el periódico o algo similar, que para eso es automático. De repente, una serie de catastróficas desdichas hace que en tu camino se cruce un inoportuno grupo de 10 personas, con tan mala suerte (léase con tono de presentador de Impacto TV) que lo hacen de manera que no puedes frenar antes de arrollarlas. Por tanto, el coche, esa máquina sin fisuras a la hora de tomar decisiones, debe decidir entre dos de ellas: o arrolla al grupo de personas o se desvía y estrella el coche contra un muro provocando la muerte del conductor, es decir, tú.

Toulouse School of Economics
Toulouse School of Economics

Desde el punto de vista frío y objetivo, parece razonable pensar que la segunda es mejor opción que la primera ya que se reduce el número de víctimas del accidente y en el peor de los casos muere solamente una en vez de 10. Por otro lado, dado que fue esta persona la que pagó para comprarse el coche y la que conducía, no parece del todo justo que sea una decisión de su propio coche la que acabe de manera fatal con su vida.

Podemos pensar en algún caso menos extremo e imaginar que en vez de un grupo de 10 personas es una moto que se cruza en tu camino. No hace falta llegar al escenario de fallecimiento para encontrar paradojas muy difíciles de resolver: si el algoritmo sabe que provocar el accidente con la moto tiene riesgo 0 para el conductor del coche y muy alto para el motorista y encuentra una solución en la que el conductor sufra un accidente grave pero no mortal, ¿debe tomarla?

Como casi siempre que se habla de algoritmos e inteligencia artificial, da un poco de vértigo analizar hasta qué punto nuestra vida puede estar condicionada por un modelo o por una serie de frías reglas lógicas ejecutadas en un procesador de manera perfecta según el problema que se planteó pero que abren dilemas morales y éticos de muy difícil solución.

Este post está basado en el trabajo publicado en Arxiv «Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?«

 

One thought on “¿A quién decidirá matar tu coche autónomo en un accidente?

  1. Interesante entrada que entronca con el clásico dilema del tranvía y que me recuerda la trama de la película, en su día, de ciencia ficción “Juegos de guerra”, en la que el gobierno de EEUU de turno decide dejar la última decisión sobre apretar el botón del inicio de la guerra nuclear en manos de un ordenador.
    El desarrollo de la inteligencia artificial ha llegado a tal punto que puede darse el caso de que una “máquina” decida por nosotros en un caso como el expuesto aún en contra de nuestras convicciones. En realidad, en estos casos, no decide la máquina concreta que usemos, sino quien hizo el software con el que funciona. Es decir, nuestras decisiones éticas no serán tomadas por nosotros sino por las personas que diseñaron el programa, con su ética particular, que no tiene que coincidir con la nuestra o con la de los miles de personas que utilicen ese programa. ¿Es eso lo que queremos? ¿Dejar de tener el control sobre nuestras propias decisiones? Habrá quien crea que su vida está en manos de un ser superior que sabe lo que se debe hacer en cada caso pero aquí ese ser superior es la máquina, o el programa que la dirige. Y ha sido diseñado por una persona o grupo de personas, con su forma de ver el mundo y sus intereses y sus propias convicciones y valores éticos o faltos de ética. ¿El gobierno de los más formados, los más ricos, los que saben programar, los que reciben más dinero por hacer un determinado programa?
    Creo que hay mucho que pensar antes de lanzarse a desarrollar este tipo de soluciones técnicas.
    Gracias por la invitación a pensar, nunca viene mal.

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Alejandro Llorente

Autor: Alejandro Llorente

Co-Fundador & Data Scientist en PiperLab