,

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
Foto: I. Artificial.

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se “escriben” sino que “crecen”

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo, informaron agencias internacionales de noticias.

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

 

Foto: I. Artificial.

“Estos peligros tienden a descubrirse solo después de ocurrido el hecho”, declaró Park, para acotar que “nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja”.

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se “escriben” sino que “crecen” mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

 

Foto: I. Artificial.

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia “Diplomacy”, donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo publicado en la revista Science.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla.

 

Foto: I. Artificial.

Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *