Un ex ingeniero de Google está fundando una religión para adorar la IA. Es demasiado tarde.

Hombre bicentenario

Los titulares de este casi podrían escribirse solos. Anthony Levandowski, el exingeniero de Google caído en desgracia cuya copia de secretos comerciales llevó a Waymo (la empresa de automóviles autónomos de Alphabet) a presentar una demanda contra Uber por 1.860 millones de dólares, fundó una organización llamada 'Way of the Future' en 2015. Su propósito, según las presentaciones estatales, era 'desarrollar y promover la realización de una Divinidad basada en la Inteligencia Artificial'.

A primera vista, la idea parece completamente absurda. Pero yo diría que el error de Levandowski no es su dudoso intento de posicionar una deidad digital como sustituto de las versiones decididamente más analógicas de las religiones convencionales. Es no darse cuenta de que llegó décadas demasiado tarde. La gente ya lo hace.

Desde los albores de la informática moderna, se ha considerado que las computadoras ofrecen capacidades mejores que las humanas en muchos aspectos. El significado original de la palabra 'computadora' data de 1613 y significaba 'uno que calcula'. Las computadoras humanas se utilizaron para crear tablas de trigonometría y logaritmos a fines del siglo XIX, así como para investigar la dinámica de fluidos y la meteorología. A medida que las computadoras digitales se hicieron más poderosas a mediados del siglo XX, la definición humana fue suplantada por la idea de que una computadora era un cosa que computa en lugar de una persona. Como Betty Jennings, una de las mujeres que trabajó en ENIAC a principios de la década de 1940,observado, “ENIAC (considerado uno de los primeros, si noelprimero, computadoras electrónicas de uso general) calcularon la trayectoria más rápido de lo que tomó la bala para viajar '.



Unos años más tarde, la computadora central UNIVAC I predijo con éxito una elección espectacular para Eisenhower en 1952, incluso cuando los encuestadores humanos convocaron la elección de Adlai Stevenson. Parte de lo significativo de ese evento es que la computadora llamó la carrera con horas de anticipación, pero CBS se negó a creerlo y no ejecutó las proyecciones de UNIVAC, a pesar de haber dicho previamente que lo harían. CBS organizó imágenes y anunció que la computadora había predicho las probabilidades de una victoria de Eisenhower en 8-7, cuando las probabilidades reales previstas eran 100-1. Una vez que quedó claro que UNIVAC estaba dentro del 1 por ciento de la proyección correcta, la red de transmisión tuvo que admitir que la computadora había tenido razón y sus propios expertos estaban equivocados.

El UNIVAC I en el Museo de Historia de la Computación. Crédito: Arnold Reinhold / Creative Commons

La idea de que las computadoras digitales eran muy superiores a los humanos en ciertos aspectos estaba comenzando a arraigarse a principios de la década de 1950 como muy tarde. De Levandowski creencia esa IA podría Cumplir con ese papel comenzó décadas antes del surgimiento de Internet, o incluso de la invención de la computadora personal.

La ciencia ficción de la época, sin embargo, todavía expresaba un malestar considerable sobre varios aspectos de la tecnología. Mientras que algunos personajes, como R. Daneel Olivaw de Isaac Asimov, fueron retratados positivamente, el original Star Trek presentó androides o computadoras como antagonistas primarios o secundarios en el 16 por ciento de sus episodios (13 episodios en total). Quizás más significativamente, solo un episodio retrató una máquina sensible (o que imita la sensibilidad) en una luz neutral: 'La ciudad al borde de la eternidad'. En todos los demás casos, los androides, los robots y los sistemas informáticos avanzados fueron representados como adversarios. Dibujé una línea bastante estrecha para esta comparación y no incluí instancias donde tecnología había funcionado mal o creado un problema. No se incluyeron episodios como “The Doomsday Machine”, donde un robot sin sentido está destruyendo planetas enteros. Para ser incluido en mi lista de 13 episodios, un antagonista primario o secundario tenía que ser de naturaleza artificial o mecánica, y tenía que exhibir capacidades sofisticadas de toma de decisiones, incluso si su inteligencia se aplicaba en una sola área de especialización o hacia un objetivo singular. Si se incluyera una lista más amplia de episodios en los que las fallas tecnológicas fueron la fuente del conflicto, la lista sería algo más larga.

Si bien pocos de estos episodios describen a la IA como explícitamente malvada, era común mostrar la inteligencia artificial que se había descompuesto por varias razones o había quedado atrapada en un modo de falla maligno como la instanciación perversa, definida como una IA que permanece fiel a la metas de sus creadores, pero logrando esos objetivos a través de un comportamiento destructivo que sus creadores nunca pretendieron. La mayor y más consistente crítica de McCoy a Spock es que no está en contacto con sus sentimientos y es una computadora glorificada basada en carne con piernas. En ningún momento del programa original se representa una forma de vida artificial de manera completamente positiva, o sin una aprensión considerable (y bien merecida) por parte del equipo de Enterprise.

CiudadImagen

La única máquina sensible que no era un antagonista de TOS era una dona espacial pobremente limitada.

Star Trek es un punto de referencia útil aquí porque el programa y sus derivados abarcan un período de tiempo tan largo. Durante la era TNG, las formas de vida artificiales no se presentaron unilateralmente como amenazas. Data y su búsqueda por comprender a la humanidad y a sí mismo de manera más completa se retratan de manera positiva y se contrastan con las acciones de otros personajes artificiales, como Lore, el hermano mayor y menos estable de Data. Los derechos de Data como individuo, su capacidad para comandar una nave estelar y su propia defensa apasionada de una forma de vida artificial que nadie más reconoce. como estar vivo todos están representados con matices.

Para el momento Viajar estaba en el aire, un episodio que trataba sobre la instanciación perversa de toda una especie de formas de vida artificiales fue más inusual que los episodios que exploran cómo la vida artificial y orgánica pueden trabajar juntas y aprender una de la otra. Eso de ninguna manera es algo malo, pero la diferencia en estas historias refleja cambios sociales en cómo se perciben las computadoras y la IA. Esos cambios, y de hecho, la percepción de que los algoritmos son de alguna manera criterios de evaluación neutrales que pueden elevarse por encima de los sesgos inconscientes o los prejuicios de la humanidad, han creado una deferencia inconsciente a la toma de decisiones algorítmicas que puede no contar como 'adoración', pero definitivamente representan algunos grado de extendido fe.

Cableado ha realizado excelentes informes sobre cómo se utilizan los algoritmos para determinar si los delincuentes en riesgo de fuga, sin información permitida sobre cómo funcionan o ponderar sus conclusiones, y cómo los prejuicios de género(PDF) puede introducirse en el software de reconocimiento de imágenes. El año pasado, el chatbot de Microsoft, Tay, se descarriló por Retórica nazi–Y hasta cierto punto, para responder de forma independiente en una lengua vernácula similar– en menos de un día.

TayTweets

Para ser justos, algo de lo que Tay tuiteó fue simplemente extraño.

Los algoritmos que funcionan mal han despojado a las personas equivocadas de sus licencias de conducir y terminaron los beneficios para la salud de miles de personas mayores y residentes de bajos ingresos de California. Estos problemas no son nuevos; a finales de la década de 1980, una investigación sobre el uso de algoritmos para seleccionar a los estudiantes que serían aceptados en la Escuela de Medicina de St. George en el Reino Unido (PDF) descubrió que el algoritmo no había evitado el sesgo racial o de género, sino que había codificado el sesgo de sus propios diseñadores en sus decisiones supuestamente neutrales. Pero mientras la inteligencia artificial y las redes neuronales siguieron siendo el material de las torres de marfil y la investigación académica, el público en general tenía pocas razones para preocuparse.

En la última década, sin embargo, hemos visto una explosión en el uso de algoritmos en todo, desde determinar qué noticias verá en su feed de Facebook hasta si tiene un buen riesgo de préstamo en función de quiénes son sus amigos de las redes sociales. El objetivo tiene algoritmos predictivos que 'sepa' que está embarazada antes que su familia, incluso si hubiera preferido mantener esa información en privado. Empresas como Facebook, Google y Twitter se desviven por presentarse como plataformas de contenido neutrales. Debajo de la superficie, un sistema de publicidad algorítmica de Facebook ofrecía compras de anuncios a personas que se identificaban como 'odiadores de judíos' o estaban interesadas en temas como 'cómo quemar judíos,'Y' por qué los judíos arruinan el mundo '. Para un algoritmo que busca hacer coincidir anunciantes y objetivos de anuncios, 'odia a los judíos' es una categoría tan válida como 'comprador de Wal-Mart'. Y YouTube sufrió pérdidas publicitarias significativas a principios de este año cuando los principales anunciantes descubrieron que sus anuncios se publicaban junto con contenido extremista.

¿Holocausto sucedió

En realidad, fue peor que esto. Lo sé, porque lo verifiqué específicamente después de ver a personas que afirmaban que era cierto en las redes sociales. La simple búsqueda de “El Holocausto” arrojó los mejores resultados de los sitios de supremacistas blancos y nazis. Los seres humanos pueden diferenciar entre tipos de contenido y fuentes. Los algoritmos no son tan buenos en eso.

Del mismo modo, Google acordó hacer una raro ajuste manual a sus propios resultados de búsqueda después de la noticia de que los principales resultados del motor de búsqueda para consultas sobre el Holocausto apuntaban a un destacado sitio web nazi. Los ingenieros de Google pueden tener toda la intención en el mundo de crear un algoritmo de clasificación neutral. Pero los algoritmos y sistemas automatizados que gobiernan nuestras interacciones sociales, anuncios de citas, recomendaciones de productos, perfiles de riesgo y los anuncios que vemos. no son neutral. Están diseñados para mostrar contenido específico, para animarte a comprar más productos o pasar más tiempo en un sitio web. Y por cada ajuste que Google hace para intentar mejorar sus resultados, una legión de servicios de optimización de motores de búsqueda (SEO) lo siguen, prometiendo los últimos trucos y formas de jugar con los sistemas de clasificación de Google y mejorar su empresa u organización, mientras trae a sus competidores. abajo.

Más de unas pocas personas han sido muerto o varado por instrucciones de GPS que los llevaron en la dirección equivocada, a veces incluso cuando la evidencia de sus propios sentidos indicaba que la ruta estaba empeorando, no mejor. El desafío de evaluar cuándo los algoritmos y la inteligencia de las máquinas están devolviendo buenos datos es que, en algunos casos, las computadoras son absolutamente superiores a nuestras propias capacidades.

Un equipo de ingenieros que trabaja en el chasis de un vehículo nuevo no puede simular su desempeño en una docena de condiciones operativas diferentes una milésima de la capacidad que tiene una computadora. La función Gente que quizás conozcas de Facebook ocasionalmente arroja gente que hizo solía saber y me gustaría estar en contacto de nuevo. Si bien los servicios de mapas y navegación GPS pueden llevarlo en la dirección equivocada, Apple Maps una vez me llevó memorablemente en un viaje de 15 millas y me dejó en un suburbio tranquilo cuando le pedí que ubicara el Chase Bank más cercano en una ciudad desconocida. no, y estos sistemas solo han mejorado con el tiempo.

Eso es parte del problema. Cuando una empresa lanza una nueva versión de software, lleva notas de parche como: 'Gestión de rutas mejorada', no 'Los conductores que se acercan a Springfield por la I-95 ya no serán dirigidos al borde de una cantera de grava abandonada'. Las mejoras cuantitativas en muchas plataformas a menudo se confunden de manera que dificultan su evaluación sistémica. De todos modos confiamos en ellos.

Servidores

La subcontratación de la interacción humana a algoritmos también tiene otras implicaciones. Una persona de color que regularmente ve pasar de 10 a 20 taxis vacíos antes de encontrar uno que se detenga para ellos, mientras que los blancos cercanos no tienen ese problema, tiene al menos evidencia circunstancial de que está siendo discriminado de manera ilegal. En contraste, una persona que está esperando un Uber nunca 've' a su posible conductor. Para escuchar a Uber decirlo, la conexión entre conductores y pasajeros se crea mediante un algoritmo de coincidencia neutral. Todavía un estudio el año pasado encontraron que los hombres y mujeres que usaban nombres que 'suenan' afroamericanos en sus perfiles de Uber tenían un porcentaje mucho más alto de sus viajes cancelados: 11.2 por ciento versus 4.5 por ciento para los hombres que usan nombres que suenan blancos, y 8.4 por ciento versus 5.4 por ciento para las mujeres que usan nombres africanos -Nombres que suenan estadounidenses versus blancos. En este caso, el algoritmo de Uber para hacer coincidir los conductores con los pasajeros bien puede ser neutral, pero sus resultados no lo son. La propia naturaleza del servicio oculta las pruebas que de otro modo podrían utilizarse como parte de una denuncia discriminatoria contra la empresa.

No adoramos al Padre Analógico, al Hijo Digital y al Espíritu Santo de los Datos, ni los declaramos como la representación entrelazada del Ternario Sagrado. Probablemente nunca lo haremos. Pero cada vez más, y a menudo inconscientemente, confiamos en algoritmos y servicios informáticos supuestamente neutrales para dar forma a nuestras vidas de maneras profundas e intrascendentes. Confiamos en que en ambos casos los algoritmos que gobiernan los productos y servicios que utilizamos tienen al menos algunos de nuestro mejor interés en el fondo. Mientras tanto, los falsos profetas del Iglesia del algoritmo neutral Sigue vivo, dando forma a nuestra comprensión de un mito fundamental de la IA que rara vez se cuestiona, pero que tiene efectos profundos en nuestra comprensión del mundo y nuestro lugar dentro de él.

Copyright © Todos Los Derechos Reservados | 2007es.com