Google está desarrollando su propia versión de las leyes de la robótica.

Redes neuronales de inteligencia artificial AI

Los investigadores de inteligencia artificial de Google están comenzando a tener que codificar su propio código, escribiendo parches que limitan las habilidades de un robot para que continúe desarrollándose por el camino deseado por los investigadores, no por el robot en sí. Es el comienzo de una tendencia a largo plazo en robótica e IA en general: una vez que hayamos puesto todo este trabajo para aumentar el conocimiento de una inteligencia artificial, ¿cómo podemos asegurarnos de que el conocimiento solo se aplicará de la manera en que lo haríamos? ¿me gusta?

Es por eso que los investigadores de DeepMind de Google y el Future of Humanity Institute han publicó un artículo Esbozar un software 'interruptor asesino' que afirman puede detener aquellos casos de aprendizaje que podrían hacer que una IA sea menos útil o, en el futuro, menos segura. Realmente es menos un asesino que un punto ciego, eliminando de la IA la capacidad de aprender las lecciones equivocadas.



actualización de atlas 2

Las leyes se están convirtiendo prácticamente en un requisito en este momento.



Específicamente, codifican la IA para ignorar la participación humana y sus consecuencias para el éxito o el fracaso. Si entrar es un 'fracaso' y se entera de que cada vez que un humano lo levanta, el humano lo lleva adentro, el robot podría decidir comenzar a huir de cualquier humano que se acerque. Si entrar es un objetivo deseado, puede aprender a renunciar a encontrar el camino hacia adentro y simplemente chocar con los tobillos humanos hasta que obtenga lo que quiere. En términos generales, la 'ley' que se está desarrollando es básicamente: 'No aprenderás a ganar el juego de formas que sean molestas y que yo no veía venir'.

Es una regla muy buena.



Elon Musk parece estar usando el amor de los medios por los titulares de pánico de ciencia ficción para promocionar su nombre y marca, en este punto, pero no está completamente equivocado cuando dice que debemos preocuparnos por que la IA se vuelva loca. El problema no es necesariamente la hegemonía de los señores de los robots, sino el caos generalizado a medida que las tecnologías basadas en inteligencia artificial ingresan a una franja cada vez más amplia de nuestras vidas. Sin la capacidad de interrumpir de forma segura una IA yno influir en su aprendizaje, el simple hecho de evitar que un robot haga algo inseguro o improductivo podría hacer que sea menos seguro o productivo, lo que hace que la intervención humana sea un asunto torturado y demasiado complejo con consecuencias imprevisibles.

google-car-hed-2-640x353Las Tres Leyes de la Robótica de Asimov son de naturaleza conceptual: describen los tipos de cosas que no se pueden hacer. Pero para proporcionar las Tres Leyes en tal forma se requiere un cerebro que comprenda palabras como 'daño' y pueda identificar con precisión las situaciones y acciones que lo producirán. Las leyes, simples cuando se escriben en inglés, serán de una complejidad absolutamente impía cuando se escriban en software. Llegarán a todos los rincones de la cognición de una IA, no editando los pensamientos que se pueden producir a partir de la entrada, sino qué entrada se notará y cómo se interpretará. Las Tres Leyes serán atributos de la inteligencia de la máquina, no limitaciones que se le impongan, es decir, serán eso o no funcionarán.

Esta iniciativa de Google puede parecer muy alejada de First Do No (Robot) Harm, pero esta comprensión fundamentada de las Leyes muestra cómo realmente son los tipos de personalidad de robot principiantes. Estamos empezando a dar forma a cómo piensan los robots, no qué piensan, y hacerlo con la intención de ajustar su potencial comportamiento, no su comportamiento observado. Eso es, en esencia, lo más básico de la moralidad de un robot.



Google

No sabemos que la violencia es mala porque la evolución nos proporcionó un grupo de neuronas de “La violencia es mala”, pero en parte porque la evolución nos proporcionó neuronas espejo y un sesgo cognitivo profundamente arraigado para proyectarnos en situaciones que vemos o imaginamos, experimentando alguna versión de los sentimientos que contiene. La creencia de orden superior sobre la moralidad surge, al menos en parte, de cambios comparativamente simples en cómo se procesan los datos. Las reglas que se imaginan y se proponen en Google son aún más rudimentarias, pero son el comienzo del mismo camino. Entonces, si desea enseñarle a un robot a no dañar a los humanos, debe comenzar con algunos aspectos básicos de su cognición.

Portal RobotsEl aprendizaje automático moderno consiste en permitir que las máquinas se codifiquen a sí mismas dentro de ciertos límites, y esos límites existen principalmente para dirigir el algoritmo en una dirección positiva. No sabe lo que significa 'bueno', por lo que tenemos que darle una definición y un medio para juzgar sus propias acciones contra ese estándar. Pero con el llamado 'aprendizaje automático no supervisado', es posible permitir que una inteligencia artificial cambie sus propias reglas de aprendizaje y aprenda de los efectos de aquellos modificaciones. Es una rama del aprendizaje que podría hacer que los bots de Tetris en pausa constante parezcan lo que son: recordatorios pintorescos pero serios de cuán extraña es realmente la mente de una computadora, y qué tan lejos las cosas podrían desviarse fácilmente.

El campo del aprendizaje no supervisado está en su infancia hoy, pero conlleva el potencial de una verdadera versatilidad de robot e incluso creatividad, así como un cambio exponencialmente rápido en habilidades y rasgos. Es el campo que podría realizar algunas de las predicciones verdaderamente fantásticas de la ciencia ficción, desde tecno-utopías dirigidas por máquinas súper eficientes e imparciales, hasta tecno-distopía dirigida por malévolas e inhumanas. Podría permitir que un robot navegue de manera útil en un entorno alienígena totalmente imprevisto, o llevar a ese robot a adquirir lentamente una comprensión inadecuada de su misión como la de V'ger.

Copyright © Todos Los Derechos Reservados | 2007es.com