Noticias

Lo que realmente sucedió con aquella Inteligencia Artificial que Facebook apagó porque había creado su propio lenguaje

Por: es.gizmodo.com | Actualidad

Los ingenieros de Facebook entran en pánico y desconectan una AI (inteligencia artificial) debido a que los ‘bots’ desarrollaron su propio lenguaje” escribió un medio. “Facebook apaga una AI luego de que inventase un lenguaje propio y horripilante” agregó otro. “¿Hemos creado a Frankenstein?” se preguntaba otro. Un tabloide británico citó a un profesor en Robótica que decía que el incidente mostraba “los peligros de aferrarse a la inteligencia artificial” y “podría ser letal” que una tecnología como esta sea introducida en robots militares.

No se hicieron esperar también los vaticinios de la inminente llegada de la revolución del robot, droides asesinos, inteligencias artificiales maliciosas y el exterminio de la humanidad —algunas predicciones más serias que otras—. Para reforzar este pánico, se citaba una conversación en la que dos ‘bots’ de Facebook muestran haber aprendido a hablar entre ellos de una forma ciertamente espeluznante. 

Bob: I can i i everything else

[Bob: Puedo yo yo todo lo demás]

Alice: balls have zero to me to me to me to me to me to me to me to me to

[Alice: pelotas tienen cero para mí para mí para mí para mí para mí para mí para mí para mí para]

Bob: you i everything else

[Bob: tú yo todo lo demás]

Alice: balls have a ball to me to me to me to me to me to me to me to me

[Alice: pelotas tienen una pelota para mí para mí para mí para mí para mí para mí para mí para mí] 

Sin embargo, la realidad resulta menos tenebrosa y más prosaica. Hace pocas semanas, FastCo Design dio cuenta de los intentos de Facebook por desarrollar una “red generativa adversaria” con el fin de desarrollar un software de negociación.

En un post publicado en junio en el blog de la unidad de Investigación en Inteligencia Artificial de Facebook, se explica que los dos “bots” que conversan en el fragmento citado fueron diseñados con el fin de demostrar que es “posible para agentes de diálogo con diferentes objetivos (e implementados en su totalidad como redes neuronales entrenadas) participar en negociaciones con otros “bots” o personas y llegar a decisiones o acuerdos comunes. 

Los “bots” no hicieron más que discutir entre ellos cómo dividir una matriz de elementos dados (representada en la interfaz de usuario como inocuos objetos como libros, sombreros y pelotas), de una manera que el resultado fuese mutuamente aceptable.

La intención era desarrollar un chatbot que, gracias a la interacción humana, pudiese aprender cómo negociar acuerdos con un usuario final de manera tan fluida que el usuario no se dé cuenta de que está hablando con un robot. En ese sentido, el FAIR (equipo de investigación en AI de Facebook) afirma que tuvo éxito:

“El desempeño del mejor agente de negociación del FAIR, que hace uso de aprendizaje de refuerzo y despliegue de diálogos, se asemeja al de los negociadores humanos… lo que demuestra que los ‘bots’ del FAIR no solo hablan inglés, sino que también piensan de manera inteligente qué es lo que van a decir”.

FastCo reportó que, cuando Facebook hizo que dos de estos semiinteligentes “bots” hablen entre ellos, los programadores cayeron en la cuenta de que cometieron un error: no haber incentivado a los chatbots a que se comuniquen según las reglas de un inglés comprensible para los humanos. En su intento por aprender el uno del otro, los “bots” conversaban entre ellos en abreviaturas que creaban —que se ve perturbador, pero solo es eso—.

Los agentes dejarán de lado el lenguaje comprensible e inventarán sus palabras en código” dijo el investigador visitante del FAIR, Dhruv Batra. “Es como si yo dijese ‘el’ cinco veces; tú interpretarías que quiero cinco copias de este ítem. No es tan distinta de la forma en que las comunidades humanas crean abreviaturas”.

Es cierto que Facebook apagó la IA, pero no porque entrasen en pánico por haber liberado a un posible Skynet sacado del universo de Terminator. Mike Lewis, un investigador del FAIR, declaró para FastCo que solo habían decidido que “nuestro interés era diseñar dos ‘bots’ que pudiesen hablar con la gente”, no que lo hiciesen eficientemente entre ellos, así que decidió más bien exigirles que se escriban entre ellos de forma legible.

Pero en mundo de telecomunicaciones no muy distinto de lo que los “bots” estaban haciendo, esta historia pasó de ser un estudio controlado de las implicaciones a corto plazo de la tecnología de aprendizaje en máquinas a convertirse en una esquizofrénica predicción apocalíptica.

Hay buenas razones para no permitir que las máquinas inteligentes desarrollen su propio lenguaje, uno cuyo significado los humanos no serían capaces de entender. Sin embargo, los “bots” de Facebook solo son un ejemplo de lo que ocurre cuando a dos máquinas inteligentes se les permite aprender de la otra. Es más, cuando las abreviaturas de los “bots” llegan a ser explicadas, la conversación se hace más comprensible y deja de ser espeluznante.

Como señala FastCo, es possible que esta clase de máquinas permitan en el futuro que dispositivos o sistemas inteligentes se comuniquen entre ellos de manera más eficiente. No obstante, esos beneficios podrían traer algunos problemas —imaginen cuán difícil debe ser depurar un sistema que funciona mal—. Sin embargo, esos percances, por lo pronto, no tienen nada que ver con liberar una inteligencia artificial que termine controlando a toda la raza humana.

En este caso, lo único que los chatbots fueron capaces de hacer fue encontrar una forma más eficiente de pasarse la pelota entre ellos.

La tecnología de aprendizaje automático puede ser muy beneficiosa. Por ejemplo, puede mejorar los diagnósticos médicos; sin embargo, también también tiene usos potencialmente nocivos, como el software de predicción de disturbios que la policía podría usar para justificar la represión en las protestas. Al fin y al cabo, se trata de compilar y analizar cantidades enormes de datos, y por el momento los riesgos recaen solo en cómo los humanos elegimos distribuir y manejar esa información. 

Ojalá que seamos lo suficientemente listos como para no conectar programas experimentales de aprendizaje automático en campos que resulten realmente peligrosos, como un ejército de androides con armas láser o un reactor nuclear. Pero si alguien lo hace y se produce un desastre, será fruto de la negligencia y estupidez humana, y no porque los robots hayan tenido una revelación filosófica sobre cuán perversos somos los humanos.

Al menos no por ahora. El aprendizaje automático no está todavía cerca de la verdadera inteligencia artificial, sino que está dando sus primeros pasos. Sin embargo, si hay alguien que de verdad tiene razones para alarmarse con noticia como esta, serían los negociadores profesionales, quienes más pronto de lo que creen podrían quedarse sin trabajo. [Fastco Design]

 

 


Consúltanos