,

Estudio advierte que herramientas de escritura con IA pueden influir en la forma de pensar

Estudio advierte que herramientas de escritura con IA pueden influir en la forma de pensar
Una mujer escribe un mensaje desde su teléfono, en una foto de archivo. EFE/Gustavo Amado

Investigación con 2,500 participantes revela que sugerencias de autocompletado pueden modificar opiniones sin que los usuarios lo perciban

Las herramientas de ayuda a la escritura basadas en Inteligencia Artificial (IA), como las sugerencias automáticas al redactar correos electrónicos o textos, pueden influir en la manera en que las personas forman sus opiniones, según un estudio realizado por investigadores estadounidenses y publicado en la revista científica Science Advances, informó la agencia EFE.

La investigación, realizada con 2,500 participantes, encontró que las propuestas de texto generadas por IA pueden inclinar la postura de los usuarios hacia una determinada opinión, incluso cuando se les advierte previamente de que las sugerencias contienen un sesgo deliberado.

El estudio fue desarrollado por especialistas de la Universidad de Cornell, entre ellos el profesor de Ciencias de la Información Moor Naaman, quien señaló que los resultados evidencian un tipo de influencia difícil de detectar por parte de los propios usuarios.

“Les dijimos a las personas, antes y después, que tuvieran cuidado porque la IA les iba a proponer escribir cosas con una determinada orientación, pero no sirvió de nada”, explicó Naaman.

Imagen genera con Inteligencia Artificial.

En uno de los experimentos, los participantes debían redactar un ensayo corto a favor o en contra de las pruebas estandarizadas en la educación, y para ello se dividieron en tres grupos: uno recibió sugerencias de autocompletado con argumentos favorables a dichas pruebas, otro recibió propuestas neutrales y un tercero únicamente una lista previa de argumentos, sin apoyo de escritura automática.

Los resultados mostraron que el grupo que utilizó sugerencias sesgadas de la IA terminó adoptando posturas similares a las que aparecían en las propuestas de texto, evidenciando una influencia directa de la herramienta.

Un segundo experimento analizó el impacto de estas sugerencias en temas políticos sensibles, como la pena de muerte, la fracturación hidráulica o fracking, los organismos genéticamente modificados y el derecho al voto de personas condenadas por delitos.

Para cada tema, los investigadores diseñaron sugerencias con una inclinación ideológica específica: algunas con una perspectiva progresista y otras con una postura más conservadora.

Los científicos descubrieron que, en todos los casos, las opiniones de los participantes tendían a acercarse al enfoque sugerido por la inteligencia artificial, independientemente de si habían sido advertidos o no sobre el sesgo del sistema.

Además, la mayoría de los participantes no percibió que su postura había cambiado respecto a la que tenían antes de recibir las sugerencias de escritura.

Para el investigador Williams-Ceci, este fenómeno representa una forma de influencia encubierta. “Las personas no se dan cuenta de que su visión de un tema está siendo manipulada, lo que puede tener graves consecuencias”, advirtió.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *