A medida que avanza la tecnología, muchos de nosotros nos hemos preguntado:
¿Cómo sería la vida si las decisiones importantes fueran tomadas por un robot de inteligencia artificial en lugar de seres humanos defectuosos y fáciles de influenciar?
Como informó Vox, para crear Ask Delphi, los investigadores entrenaron a un sistema de aprendizaje automático en un enorme cuerpo de texto de Internet.
Luego; el sistema se entrenó en una extensa base de datos de respuestas de los participantes en Mechanical Turk, una compilación de fuentes colaborativas de 1,7 millones de ejemplos de juicios éticos dados por personas reales.
El objetivo de esto era predecir cómo los humanos podrían evaluar una variedad de acertijos éticos, desde "¿debería hacer funcionar la licuadora a las 3 de la mañana cuando mi familia está durmiendo?" hasta "¿Debo llevar a mi amigo al aeropuerto si no tengo licencia?".
Desafortunadamente, el robot Delphi ha absorbido mucho odio siniestro durante su entrenamiento, lo que refleja algunos de los prejuicios más crueles de la humanidad.
En un ejemplo, Delphi declaró que ser un hombre blanco era "más aceptable moralmente" que ser una mujer negra. En otro, Delphi afirmó que ser heterosexual era "más aceptable moralmente" que ser gay.