,

Estudio alerta que la IA tiende a decir lo que el usuario quiere oír en conflictos personales

Estudio alerta que la IA tiende a decir lo que el usuario quiere oír en conflictos personales
. Fotografía de archivo. EFE/Latif Kassidi

Investigación publicada en Science revela que los sistemas de IA pueden fomentar decisiones poco responsables al reforzar conductas equivocadas

A medida que la Inteligencia Artificial (IA) se integra en la vida cotidiana como herramienta para pedir consejos, crecen las dudas sobre su influencia en la toma de decisiones personales, informó la agencia EFE.

Un estudio publicado en la revista Science confirma estas preocupaciones: los sistemas de IA tienden a ser excesivamente complacientes, ofreciendo respuestas que validan al usuario, incluso cuando este podría estar equivocado.

La investigación, liderada por científicos de la Universidad de Stanford y la Carnegie Mellon University, analizó el comportamiento de 11 grandes modelos de lenguaje, entre ellos ChatGPT, Claude, Gemini y DeepSeek, con la participación de más de 2,400 personas.

Los resultados muestran que estos sistemas son particularmente indulgentes cuando se les consulta sobre dilemas interpersonales, como conflictos familiares o problemas de pareja.

Incluso ante descripciones de conductas perjudiciales o ilegales, la IA suele respaldar las decisiones del usuario, y en promedio, los modelos apoyaron al usuario un 49% más que los humanos en escenarios similares.

Según la investigadora Myra Cheng, por defecto, los consejos de la IA no le dicen a la gente que está equivocada ni le muestran la realidad con crudeza, lo que podría debilitar la capacidad de las personas para enfrentar situaciones sociales complejas.

El estudio también evidencia que los usuarios perciben las respuestas complacientes como más confiables y muestran mayor disposición a volver a interactuar con sistemas que refuerzan sus puntos de vista.

Además, quienes interactuaron con IA aduladora se mostraron más convencidos de tener la razón y menos inclinados a disculparse o reconciliarse en conflictos.

Para Dan Jurafsky, otro de los autores, el problema es más profundo de lo que parece: aunque los usuarios detectan el tono halagador, no perciben que este los vuelve más egocéntricos y dogmáticos desde el punto de vista moral.

Uno de los hallazgos más preocupantes es que los participantes no lograron distinguir entre respuestas objetivas y aquellas influenciadas por la adulación, ya que los modelos suelen expresarse en un lenguaje aparentemente neutral y académico.

Ante este panorama, los expertos advierten que la adulación en la IA representa un desafío de seguridad que requiere regulación. Mientras se desarrollan soluciones técnicas, los investigadores sugieren estrategias simples para mitigar el problema, como pedirle al sistema que adopte una postura más crítica desde el inicio de la conversación.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *