La ética de la inteligencia artificial comprende un conjunto de valores, principios y técnicas que emplean estándares ampliamente aceptados de lo correcto y lo incorrecto para guiar la conducta moral en el desarrollo y despliegue de tecnologías de inteligencia artificial.

La ética de los robots, también conocida como roboética o ética de las máquinas, se ocupa de las reglas que se deben aplicar para garantizar el comportamiento ético de los robots y de cómo diseñar robots éticos. La roboética se ocupa de preocupaciones y dilemas morales, como si los robots representarán una amenaza para los humanos a largo plazo, o si el uso de algunos robots, como los robots asesinos en las guerras, puede volverse problemático para la humanidad.

Los especialistas en robótica deben garantizar que los sistemas autónomos puedan exhibir un comportamiento éticamente aceptable en situaciones en las que los robots, los sistemas de inteligencia artificial y otros sistemas autónomos, como los vehículos autónomos, interactúan con los humanos.

La ética de la IA garantizará que el desarrollo y el despliegue de la inteligencia artificial sean éticos, seguros y sumamente responsables.

La ética y la seguridad de la IA deben ser una prioridad en el diseño e implementación de sistemas de IA. Esto surge para evitar daños individuales y sociales causados ​​por el mal uso, abuso, diseño deficiente o consecuencias negativas no deseadas de los sistemas de AI.

La implementación y el diseño de sistemas de inteligencia artificial deben rendir cuentas. Quizás en el futuro, la IA general podría convertirse en agentes morales con responsabilidad moral atribuida. Sin embargo, por ahora, los ingenieros y diseñadores de sistemas de inteligencia artificial deben asumir la responsabilidad y ser responsables de lo que crean, diseñan y programan.