Las infracciones en el metaverso pueden ser más graves que el acoso y la intimidación en línea actual. Esto se debe a que la realidad virtual sumerge a las personas en un entorno digital que lo abarca todo.
SAN FRANCISCO— Hace unos días, Chanelle Siggens se puso su visor de realidad virtual Oculus Quest para jugar su videojuego de disparos favorito, “Population One”. Tras iniciar el juego, llevó a su avatar a una sala de espera virtual en el mundo digital inmersivo y aguardó a que comenzara la acción.
Pero mientras esperaba, el avatar de otro jugador se le acercó. El extraño procedió a simular manosear y eyacular sobre su avatar, dijo Siggens. Conmocionada, le pidió al jugador, cuyo avatar parecía masculino, que dejara de hacer eso.
“El extraño se encogió de hombros, como diciendo: ‘No sé qué decirte. Esto es el metaverso, puedo hacer lo que quiera’”, dijo Siggens, una residente de 29 años de Toronto. “Luego, simplemente se alejó”.
Las empresas de tecnología más grandes del mundo —Microsoft, Google, Apple y otras— se están lanzando de lleno a crear el metaverso, un mundo de realidad virtual donde las personas pueden hacer que sus avatares hagan de todo, desde jugar videojuegos y asistir a sesiones en el gimnasio hasta participar en reuniones.
En octubre, Mark Zuckerberg, fundador y director ejecutivo de Facebook, dijo que creía tanto en el metaverso que invertiría miles de millones de dólares en la iniciativa. También rebautizó a su compañía como Meta.
Sin embargo, al mismo tiempo que los gigantes de la tecnología apuestan fuerte por el concepto, han comenzado a surgir preguntas sobre la seguridad del metaverso.
El acoso, las agresiones, la intimidación y el discurso del odio ya ocurren sin control en los juegos de realidad virtual, que son parte del metaverso, y existen pocos mecanismos para reportar con facilidad a los agresores, dijeron los investigadores.
En un popular juego de realidad virtual, “VRChat”, se produce una infracción aproximadamente cada siete minutos, según el Centro para Contrarrestar el Odio Digital, una organización sin fines de lucro.
Las infracciones en el metaverso pueden ser más graves que el acoso y la intimidación en línea actual. Esto se debe a que la realidad virtual sumerge a las personas en un entorno digital que lo abarca todo, donde el contacto no deseado en el mundo digital puede llegar a sentirse real y la experiencia sensorial se intensifica.
“Cuando sucede algo malo, cuando alguien se te acerca y te manosea, tu mente te engaña para que pienses que está sucediendo en el mundo real”, dijo Siggens. “Con el metaverso completo, todo será mucho más intenso”.
El comportamiento tóxico en los juegos y en la realidad virtual no es algo nuevo. Pero a medida que Meta y otras grandes empresas hagan del metaverso su plataforma, lo más probable es que los problemas se vean magnificados por el alcance de las empresas sobre miles de millones de personas. Las compañías están animando a la gente a unirse al metaverso, con Meta, fabricantes de los visores Oculus Quest, y durante las vacaciones navideñas redujeron el precio de los productos.
Zuckerberg, que parece estar al tanto de las preocupaciones sobre los daños del metaverso, ha prometido construirlo teniendo en cuenta la privacidad y la seguridad. Sin embargo, incluso sus propios empleados se han preguntado si realmente podrán detener el comportamiento tóxico allí.
En marzo, Andrew Bosworth, un ejecutivo de Meta que se convertirá en director de tecnología en 2022, escribió en un memorando para los empleados que moderar las interacciones y acciones de los usuarios en el metaverso “a cualquier escala significativa es prácticamente imposible”. La existencia del memorando fue reportada previamente por The Financial Times.
Kristina Milian, portavoz de Meta, afirmó que la compañía estaba trabajando con legisladores, expertos y socios de la industria en el metaverso. En una publicación de blog de noviembre, Meta también dijo que estaba invirtiendo 50 millones de dólares en investigaciones globales para desarrollar sus productos de manera responsable.
Meta les ha pedido a sus empleados que se ofrezcan como voluntarios para probar el metaverso, según un memorando interno visto por The New York Times. Un portavoz de la compañía dijo que recientemente un extraño había manoseado el avatar de una evaluadora de un juego de realidad virtual, “Horizon Worlds”. El incidente, del que Meta ha dicho que aprendió algunas lecciones, fue reportado con anterioridad por The Verge.
La mala conducta en la realidad virtual suele ser difícil de monitorear porque los incidentes ocurren en tiempo real y por lo general no quedan registros.
Titania Jordan, directora de atención a padres en Bark, que utiliza inteligencia artificial para monitorear los dispositivos de los niños por razones de seguridad, dijo que en especial le preocupaba lo que los niños podrían encontrar en el metaverso. Dijo que los abusadores podrían dirigirse a los niños a través de mensajes de chat en un juego o hablándoles a través de los auriculares, acciones que son difíciles de documentar.
“La realidad virtual es otro mundo de complejidad”, dijo Jordan. “Solo la capacidad de identificar a alguien que haya cometido una infracción y bloquearlo de manera indefinida o establecer consecuencias para que no pueda simplemente reincidir, eso aún se está desarrollando”.
Callum Hood, jefe de investigación del Centro para Contrarrestar el Odio Digital, pasó hace poco varias semanas grabando interacciones en el juego “VRChat”, creado por un desarrollador llamado VRChat y que se juega principalmente a través de los visores Oculus Quest. En el juego, las personas pueden formar comunidades virtuales y hacer que sus avatares jueguen a las cartas, festejen en una discoteca virtual o se reúnan en espacios públicos virtuales para conversar. Oculus lo califica como seguro para los adolescentes.
Sin embargo, durante un periodo de 11 horas, dijo Hood, registró más de 100 incidentes problemáticos en “VRChat”, algunos de los cuales involucraron a usuarios que dijeron ser menores de 13 años. En varios casos, los avatares de los usuarios realizaron amenazas sexuales y violentas contra menores, dijo. En otro caso, alguien intentó mostrarle contenido sexualmente explícito a un menor de edad.
Milian dijo que los estándares comunitarios y la política de realidad virtual de Meta describen lo que está permitido en su plataforma y que los desarrolladores deben cumplir. “No permitimos contenido que ataque a personas por motivos de raza, origen étnico, nacionalidad, afiliación religiosa, orientación sexual, casta, sexo, género, identidad de género y enfermedades o discapacidades graves”, dijo.
Los menores de edad no tienen permitido crear cuentas o usar dispositivos Oculus, dijo. Parte de la responsabilidad, agregó, recae en los desarrolladores de las aplicaciones.
VRChat no respondió a una solicitud de comentarios.
Luego de que Siggens sufriera abuso mientras jugaba el juego de realidad virtual “Population One”, dijo que se había unido a un grupo de apoyo virtual para mujeres, muchas de las cuales también jugaban ese título. Siggens dijo que las miembros de ese grupo lidiaban regularmente con casos de acoso en el juego. En junio, Meta compró BigBox VR, el desarrollador de “Population One”.
Otra miembro del grupo de apoyo, Mari DeGrazia, de 48 años, de Tucson, Arizona, dijo que veía casos de acoso y agresión en “Population One” “de dos a tres veces por semana, si no más”.
“A veces vemos cosas que suceden dos o tres veces al día que violan las reglas del juego”, añadió.
BigBox VR no respondió a una solicitud de comentarios.
DeGrazia dijo que las personas responsables de “Population One” habían respondido a sus quejas y parecían estar interesadas en lograr que el juego fuera más seguro. A pesar del acoso, dijo, DeGrazia ha encontrado una comunidad de amigos virtuales con los que juega regularmente y disfruta de esas interacciones.
“No voy a dejar de jugar, porque creo que es importante tener gente diversa, incluidas mujeres, en este juego”, dijo. “No nos van a sacar de aquí, aunque a veces la situación sea difícil”.