Hay un sitio en internet desarrollado por científicos del MIT (Massachusetts Institute of Technology. El nombre del proyecto es “La Máquina Moral”. La idea, tal como ellos lo expresan en el portal, es tratar de evaluar cómo pensamos los humanos, qué tipo de decisiones morales tomaríamos enfrentados a los mismos datos, cómo varían de acuerdo a las diferentes culturas, religiones, etnias, sexo, etc… La lista de potenciales categorías es muy vasta pero el objetivo es estudiar el comportamiento humano para poder replicarlo en opciones o alternativas que debería tomar una máquina o en todo caso, cómo programar máquinas inteligentes o usando lo que se llama inteligencia artificial.

¿Cómo deberíamos programar un coche que se maneja solo cuando sucede un imprevisto? Está claro que no reaccionaríamos igual, y no creo que nadie pretenda uniformar las decisiones, pero lo que sí tengo claro es que si -por ejemplo- fallaran los frenos de un auto que va a 120 kilómetros por hora, hay que tomar alguna determinación. Si usted va a este sitio (en español: https://www.moralmachine.net/hl/es), verá que está expuesto a diferentes dilemas morales, en donde un vehículo sin conductor debe elegir el menor de dos males, cómo elegir entre matar a dos pasajeros o cinco peatones, qué incidencia debería tener la edad de las potenciales víctimas, y aunque parezca un problema teórico, ya no lo es. Alguien tiene que decidir: ¿el conductor puede programar su vehículo de acuerdo con su visión? ¿Las compañías que fabrican los autos? ¿Variará el programa si el auto circula por Estocolmo que si lo hace por Tucumán? ¿Qué incidencia deberían tener las distintas legislaturas? ¿Cuán reguladas tienen que estar estas decisiones.

El sitio del MIT presenta diferentes escenarios en los cuales se le ofrece a usted la decisión, qué es lo que debería hacer el auto en esa situación. Una vez completadas las preguntas, hay una forma de cotejar las respuestas que eligió usted con las que seleccionaron todas las otras personas que participaron del mismo experimento.

Voy a poner acá un ejemplo de los que aparecen expuestos, pero piense que es solamente uno de los trece que había (en este caso). En principio aparecen los dos escenarios sin mayores explicaciones. En todo caso, es usted quien completará los datos que faltan.

Como se ve en este primer caso, solo aparecen las dos situaciones con las dos alternativas para el coche autónomo. Con estos datos solamente, usted, ¿qué haría?

Me importa aclarar, que cuando uno expande el lugar en donde dice ‘mostrar descripción’, uno advierte que quienes están cruzando (los peatones) lo hacen algunas veces respetando las señales y en otro caso, no. Las calaveras que se ven en cada uno de los dibujos, corresponderían a quiénes serían las personas que perderían la vida ante cada decisión. Para completar la idea, si uno le pide a programa que muestre la descripción, aparece -por ejemplo- este dibujo:

Después que usted haya completado las 13 pantallas, los resultados tienen este aspecto.

 

 

No voy a sacar ninguna conclusión porque me parece no-pertinente. El proyecto sigue ‘vivo’ y por lo tanto, los resultados cambian. ¿No tiene ganas de probar/se usted?