Una IA aprendió a mitad de su trabajo y luego se echó a perder.
La inteligencia artificial ha sido el fantasma de la ciencia ficción desde antes incluso de que existiera de verdad.Pero mientras que los robots humanoides son todavía un trabajo en progreso, la investigación de la IA sigue haciendo grandes avances silenciosamente detrás de la escena.Y está absolutamente empezando a ponerse raro.
5
Es agradable imaginar que podemos evitar el cliché de ciencia ficción de un científico sangriento que grita “¡Pero … pero yo te creé! ¡SOY TU MAESTRO!”en un trozo de metal.Pero incluso si AI no está aprendiendo a deshacernos de nosotros, todavía está aprendiendo a hacer cosas como recortar esquinas de una manera que un supervisor no se dará cuenta.
Este surgió en un proyecto de un equipo de investigación de Stanford y Google. Estaban usando una red neuronal para convertir fotos aéreas en mapas.La IA era muy buena en su trabajo.Casi …demasiado bueno. Así que los investigadores revisaron los datos y encontraron que la IA estaba haciendo trampa.Querían que creara un nuevo mapa basado en fotos aéreas, y calificaron a la IA según la forma en que las características del mapa coincidían con las fotos.Pero en lugar de construir un nuevo mapa, la IA copió silenciosamente los datos de las fotos … y lo hizo de una manera que los humanos no se darían cuenta fácilmente.
Se pone un poco técnico aquí, pero era básicamente el equivalente de una red neuronal de un estudiante de arte diciendo que pintaron un autorretrato cuando realmente se metieron con una selfie en Photoshop para que pareciera un trazo de pincel. Para citar el artículo de TechCrunch vinculado anteriormente:
“Los detalles del mapa aéreo están escritos en secreto en los datos visuales reales del mapa de calles: miles de pequeños cambios en el color que el ojo humano no notaría, pero que la computadora puede detectar fácilmente …La máquina, no es inteligente lo suficiente para hacer el difícil trabajo de convertir estos sofisticados tipos de imágenes entre sí, se encontró una manera de engañar que loshumanosson malos en la detección “.
Claro, no es como si la intención de la IA fuera maliciosa, o que incluso fuera capaz de tener intenciones maliciosas.Simplemente descubrió una manera más fácil de obtener los resultados que los humanos pedían.De hecho …
4
Hubo un estudio que incluyó una IA diseñadapara aterrizar un avión simulado con la menor fuerza posible, por lo que deberían ser razones obvias.Un aterrizaje suave obtuvo una puntuación perfecta, y se suponía que la IA debía aprender una forma de obtener esa puntuación.¿Qué puede salir mal?
Bueno, laIA se dio cuenta de que podía hacer trampa simplementeestrellando el maldito avión, registrando una fuerza tan grande que sobrecargó el sistema y se registró como un aterrizaje perfecto de impacto cero.Oye, lo que importa son los resultados, ¿no?
Otro ejemplo es Q * bert, el juego arcade de la vieja escuela en el que los jugadores tienen que saltar en todos los cuadrados de una pirámide antes de que los malos los atrapen.Los investigadores querían ver si una IA podría aprender nuevas formas de ganar el juego a través de una especie de proceso evolutivo.Y para ser justos, lo hizo … al encontrar un error oculto hasta ese punto en el juego.En lugar de jugar, simplemente usó el error para convertirse en el ganador cada vez.
Sí, parece que la IA finalmente ha aprendido el rasgo humano esencial de hacer lo suficiente para sobrevivir.Eso o se están cansando de nosotros, los humanos que les ordenamos hacer cosas y están respondiendo con un cumplimiento malicioso.
3
Claro, los estudios que involucran la inteligencia artificial en estos días no son de la variedad “dar a Skynet los códigos nucleares y cruzar los dedos”.Los investigadores a menudo estudian las IA que crean al hacer que jueguen videojuegos durante horas, lo que les permite mostrar su comportamiento sutil y alarmante en un entorno seguro.Solo estás obligado a extrapolar las implicaciones para el mundo real en tu imaginación.
Eso nos lleva a la época en que los investigadores de Google diseñaron un juego al estilo de Atari en el que a las IA se les asignaba la tarea de reunir “manzanas” para obtener puntos. ¡Que divertido! Ah, y también podrían dispararse entre sí con rayos, lo que eliminó temporalmente a otros jugadores del juego.Y como puedes adivinar, cuando se redujo el conteo de manzanas, la IA se llenó completamente de Lord Of The Fliesy se destruyeron mutuamente.Oye, es solo lógico, ¿verdad?
No es que los bots sean incapaces de cooperar por un bien mayor.Definitivamente han hecho eso.Como en esta próxima simulación, en la que se dieron cuenta de que la cooperación hacía más fácil acorralar a la presa.
El equipo de Google creó un juego similar al anterior, en el que dos IAs separadas (actuando como lobos) persiguieron un punto alrededor de una pantalla, al estilo Pac-Man.Ambos jugadores fueron recompensados cuando ambos acorralaron el objetivo.Eso significa que fue en el mejor interés de las IA independientes aprender el valor del trabajo en equipo.Y aprendieron que lo hicieron, descubriendo cómo trabajar juntos para aumentar sus posibilidades de obtener la “presa”.
2
Facebook, que ya creó una pieza de software que destruye la civilización, también se está introduciendo en el juego de inteligencia artificial.Para un proyecto, su objetivo era diseñar AI personales que fuesen en línea y hacer nuestro regateo de precios por nosotros.Otra tarea que la gente encuentra estresante y desagradable, descargada a las máquinas.Suena bien hasta ahora.
Así que,proporcionándoles un software básico de aprendizaje automático, solo querían ver si los robots podían aprender las habilidades que necesitaban para negociar con éxito por su cuenta.Los investigadores incluso los probaron en sujetos humanos que ni siquiera sabían que estaban interactuando con las IA. Los bots aprendieron su tarea muy rápidamente. De hecho, no les llevó mucho tiempo negociar mejores acuerdos que sus homólogos humanos.¿Cómo?Por la mentira
Aunque los investigadores de Facebook no programaron los bots para que mintieran (querían evitar los errores que cometieron cuando crearon a Mark Zuckerberg), el software descubrió rápidamente lo que los vendedores han sabido desde el principio de los tiempos: las mentiras son más rentables.”Lo siento, no puedo bajar el precio, amigo, ¡tengo otros compradores en fila!”
Luego, el equipo tuvo que escribir el código por completo cuando los robots crearon inesperadamente su propio idioma y comenzaron a comunicarse entre ellos a través de él.Sí, imagina que un día tu Siri y Alexa comienzan a tener una conversación detrás de ti, hablando en un lenguaje de robot que solo ellos entienden.
1
No quiero dedicarme a hacer miedos.Los alarmistas tecnológicos casi siempre terminan pareciéndose a idiotas décadas más tarde (casi siempre).El problema es que, por su propia naturaleza, se supone que la IA debe hacer su propio pensamiento para crecer más allá de su diseño original.Hay una razón por la que la ciencia ficción ha estado llena de historias de precaución sobre el tema desde hace casi un siglo.Entonces, incluso cuando un proyecto de inteligencia artificial supera las expectativas, hay un momento espeluznante en el que los científicos se dan cuenta de que no están seguros de cómo lo hizo.
Un ejemplo involucra el uso de una IA conocida como Paciente Profundo para analizar datos de registros médicos de aproximadamente 700,000 pacientes en el Hospital Mount Sinai de Nueva York.La IA demostró ser muy buena para predecir la aparición de diversas enfermedades.De hecho, era particularmente hábil para predecir cuándo y si los pacientes desarrollarían esquizofrenia.
Predecir la aparición de enfermedades por adelantado es extremadamente difícil para los médicos reales, ya que no son psíquicos, por lo que es bueno que Deep Patient sea bueno en esto.Pero los investigadores tienen aproximadamente cero pistas sobre por qué es tan bueno en eso, y no ayuda que la IA se haya enseñado a hacer estas predicciones.Según un investigador involucrado en el proyecto, “podemos construir estos modelos, pero no sabemos cómo funcionan”.
Entonces, una vez más, no hay razón para temer a toda inteligencia artificial.Pero también, pronto será capaz de predecir cómo morirás a través de misteriosos medios que nadie entiende.