¿Agencia moral extendida por IA?
Garantizar que las empresas toman por lo general todas las medidas necesarias para asegurar la calidad y seguridad de sus productos o servicios.

Este artículo, nos pregunta cómo los extensores cognitivos, basados ??en tecnología de IA, afectan la condición de sus usuarios como agentes morales y la evaluación moral de sus acciones. Estudia cómo los extensores de IA pueden mejorar o disminuir la agencia moral de sus usuarios. Por un lado, pueden ampliar el alcance de las características agenciales y, por otro, pueden socavar la autonomía del agente y reducir su responsabilidad. El trabajo se centra en la agencia moral y la responsabilidad del ser humano extendido por IA como un sistema híbrido acoplado. Suponiendo condiciones estándar para la agencia responsable, examina casos específicos en los que el extensor influiría en la condición moral del agente. Los extensores de experimentos mentales que se analizan se basan en tecnologías ya existentes. La motivación obvia de este ejercicio es que estos dispositivos podrían ser útiles para personas con trastornos psiquiátricos que dificultan la expresión de su agencia moral. Se analiza la condición moral de los agentes extendidos por IA como sistemas acoplados y se argumenta que el funcionamiento de un extensor de IA puede influir en la idoneidad de un agente para ser considerado moralmente responsable. Esto debería tenerse en cuenta en el diseño y desarrollo responsable de extensores de IA.

Leer artículo


Debes estar registrado para comentar