Para los investigadores de la Universidad de la Universidad Autónoma de Barcelona, la ética juzga la bondad o maldad de la acción humana, no es coherente, está influenciada por la cultura a la que pertenecemos y por la experiencia de vida de cada uno de nosotros. Por lo tanto, los sistemas éticos que se puedan aplicar a la Inteligencia Artificial – IA no son universales ni completas. Sostienen, qué aspectos plenamente humanos como los derechos de cada persona no puede ser entendidos por una máquina y que estos sistemas no cuentan con el tiempo y los datos suficientes para procesar un evento, por lo que en el diseño de sistemas de IA debe tenerse en cuenta un factor al azar.
En ese sentido, los estudiosos manifiestan que es imposible implementar modelos éticos infalibles en sistemas informáticos que requieren de instrucciones rigurosas, y sean válidos para todo el mundo, manifiestan que tal vez sean funcionales en el ámbito de una determinada cultura. Sostienen que cualquier solución es y será insatisfactoria y que ninguna ética puede aplicarse en una teoría de juegos aplicados a la moralidad, así como tampoco un sistema estadístico que emplee el azar para tomar decisiones, porque sería injusto. Refieren que las contradicciones de los códigos éticos humanos hacen que sea imposible la implementación de un sistema de IA que sea satisfactoria para todos los seres humanos. Advierten que se debe partir de la evidencia, y que el análisis sincero y pragmático de la acción humana nos dice que no existe una ética universal y aceptada por todos, tal como se evidencia con las reiteradas infracciones que se publican en el informe anual de los derechos humanos de las naciones unidas.
Temas relacionados
Referencia: Vallverdú, J., Boix, S. (2021). Éticas falibles para máquinas (in)falibles. Arbor, 197(800): https://doi.org/10.3989/arbor.2021.800003