Los científicos desarrollan una guía oficial sobre la ética de los robots

NASA

Fue hace décadas cuando el gran Isaac Asimov de la ciencia ficción imaginó un mundo en el que los robots eran un lugar común. Esto fue mucho antes de que existiera incluso la inteligencia artificial más rudimentaria, por lo que Asimov creó un marco básico para el comportamiento de los robots llamado Tres leyes de la robótica. Estas reglas garantizan que los robots sirvan a la humanidad y no al revés. Ahora, el British Standards Institute (BSI) ha publicado su propia versión de las Tres Leyes. Sin embargo, es mucho más largo y no tan rápido.

En la versión de Asimov, las Tres Leyes están diseñadas para garantizar que los humanos vengan antes que los robots. Solo como referencia: en forma abreviada, las leyes de Asimov requieren que los robots preserven la vida humana, obedezcan las órdenes dadas por los humanos y protejan su propia existencia. Por supuesto, hay momentos en que esas reglas chocan. Cuando eso sucede, la primera ley siempre se tiene en la más alta consideración.

El documento de BSI se presentó en la reciente conferencia Social Robotics and AI en Oxford como un enfoque para incorporar la evaluación de riesgos éticos en los robots. Como puede imaginar, el documento es más complicado que las leyes de Asimov escritas en el cerebro positrónico ficticio. Funciona desde unpremisa similar, aunque. “Los robots no deben diseñarse única o principalmente para matar o dañar a los seres humanos”, se lee en el documento. También enfatiza que los humanos son responsables de las acciones de los robots y, en cualquier caso en el que un robot no haya actuado de manera ética, debería ser posible descubrir qué humano fue el responsable.



ED-209, un robot asesino de Robocop

Según la BSI, la mejor manera de asegurarse de que las personas sean responsables de lo que hacen sus robots es asegurarse de que el diseño de la IA sea transparente. Sin embargo, eso podría ser mucho más difícil de lo que parece. Incluso si el código que rige a los robots es de libre acceso, eso no garantiza que podamos saberlo por qué Ellos hacen lo que hacen.

En el caso de las redes neuronales, los resultados y las decisiones son producto del aprendizaje profundo. No hay nada en la red que pueda señalar que gobierne un resultado determinado como puede hacerlo con el código programático. Si una IA de aprendizaje profundo utilizada en la aplicación de la ley comenzara a mostrar un comportamiento racista, podría no ser fácil averiguar por qué. Solo tendría que volver a capacitarlo.

Más allá del diseño de la IA, el informe de BSI especula sobre ideas más amplias, como formar vínculos emocionales con robots. ¿Está bien amar a un robot? No hay una buena respuesta para eso, pero definitivamente es va a ser un problema enfrentamos. ¿Y qué debería suceder si nos volvemos demasiado dependientes de la IA? La BSI insta a los diseñadores de inteligencia artificial a no eliminar a los humanos por completo. Si llegamos a depender de la IA para hacer un trabajo, es posible que no nos demos cuenta de cuándo su comportamiento o prioridades comienzan a ofrecer resultados subóptimos, o cuándo comienza a acumular armas para exterminar a la humanidad.

Copyright © Todos Los Derechos Reservados | 2007es.com