,

Los agresores sexuales infantiles están sin control alguno, mientras las empresas de tecnología miran hacia otro lado

Los agresores sexuales infantiles están sin control alguno, mientras las empresas de tecnología miran hacia otro lado
Redes sociales. Foto/Archivo

Las hermanas tienen miedo de que las reconozcan. Una se dejó crecer un flequillo y empezó a usar sudadera con capucha. La otra se tiñó el cabello de negro. Ninguna de las dos quiere verse como lucían cuando eran niñas.

Hace diez años, su padre publicó en internet fotografías y videos explícitos de ellas, quienes en ese momento solo tenían siete y once años. En muchos se veían agresiones violentas, incluyendo cuando él y otro hombre drogaron y violaron a la niña de 7 años.

Actualmente estos hombres están en la cárcel, pero, como resultado de una cruel característica de esta era digital, sus delitos están encontrando nuevo público. Estas dos hermanas forman parte de las primeras generaciones de niños que fueron víctimas de abuso sexual cuyo dolor se ha preservado en el internet.

Tan solo este año, se encontraron fotografías y videos de estas hermanas en más de 130 investigaciones de abuso sexual infantil.

El rastro digital de esas agresiones las atormenta de manera incesante, afirmaron, así como el temor de que algún depredador sexual las reconozca por las imágenes.

“Como sé que esas imágenes están ahí, lo que pasó no deja de estar en mi cabeza todo el tiempo”, comentó E., la hermana mayor, quien solo es identificada por la inicial de su nombre para proteger su privacidad. “Debido a la manera en que funciona internet, no es algo que vaya a desaparecer”.

Experiencias terroríficas como las de ellas están volviendo a circular en internet porque los motores de búsqueda, las redes sociales y el almacenamiento en la nube están llenos de oportunidades que aprovechan los delincuentes.

Apenas se comienza a comprender el alcance del problema gracias a que la industria de la tecnología se ha esmerado más en los últimos años para identificar el material relacionado con las agresiones sexuales a niños, y el año pasado identificó 45 millones de fotografías y videos.

Sin embargo, descubrimos en una investigación de The New York Times que la industria sigue sin tomar medidas enérgicas para remediarlo.

Estas empresas poseen las herramientas técnicas capaces de detener la circulación de imágenes relacionadas con agresiones sexuales al comparar las fotos recién detectadas con las de las bases de datos de ese tipo de material. Sin embargo, la industria no aprovecha al máximo esas herramientas.

Amazon, cuyo servicio de almacenamiento en la nube maneja millones de cargas y descargas por segundo, ni siquiera busca estas imágenes. Apple no revisa su almacenamiento en la nube y encripta su aplicación de mensajería, lo que hace que la detección sea prácticamente imposible. Los productos para el consumidor de Dropbox, Google y Microsoft rastrean imágenes ilegales, pero solo cuando alguien las comparte, no cuando las suben.

Y otras empresas, incluyendo Snapchat y Yahoo, rastrean fotografías, pero no videos.

Facebook revisa a fondo sus plataformas, y el año pasado contribuyó con más del 90 por ciento de las imágenes identificadas por las empresas de tecnología, pero la compañía no está usando todas las bases de datos disponibles para detectar ese material. Además, Facebook anunció que la fuente principal de las imágenes, Facebook Messenger, en algún momento será encriptado, lo que limitará muchísimo la detección.

Es mucho más probable que las empresas tecnológicas revisen fotografías, videos y otros archivos en sus plataformas por cuestiones de reconocimiento facial, detección de programas maliciosos y aplicación de la ley del derecho de autor. Pero algunas empresas dicen que es diferente buscar contenidos relacionados con abusos sexuales porque eso puede provocar problemas importantes con respecto a la privacidad.

En 2009, Microsoft y Hany Farid, actual profesor de la Universidad de California, campus Berkeley, crearon el método principal para detectar imágenes ilegales. Este software, conocido como PhotoDNA, puede utilizar las computadoras para reconocer fotografías, incluso las modificadas, y compararlas con las de las bases de datos de imágenes ilegales conocidas. Casi ninguna fotografía ni video de los detectados el año pasado podrían haber sido identificados sin un sistema como PhotoDNA.

No obstante, esta técnica tiene limitaciones porque no existe una lista única autorizada de material ilegal conocido, lo que genera omisiones que permiten que pasen infinidad de imágenes. La base de datos que se usa más habitualmente es gestionada por un centro de intercambio de información designado por el gobierno federal que recaba las huellas digitales de las imágenes que las empresas de tecnología de Estados Unidos han reportado. Otras organizaciones alrededor del mundo tienen sus propias bases de datos.

Sin embargo, incluso si existiera una lista única, no se resolverían los problemas de las imágenes recién creadas que inundan internet, ni el aumento de las transmisiones en vivo de las agresiones sexuales.

Para las víctimas como E. y su hermana, el trauma de ver circulando constantemente sus fotografías y videos tiene efectos devastadores. Su madre comentó que ambas hermanas han sido hospitalizadas por tener pensamientos suicidas.

Además, debido a que se sabe que los delincuentes en internet buscan personas que hayan sufrido abuso infantil, incluso cuando ya son adultos, las hermanas no hablan públicamente sobre los delitos de los que fueron víctimas. Sus conmovedoras conversaciones con el Times fueron las primeras que han tenido públicamente sobre las agresiones.

“Te quitan tu propia voz”, señaló E. “Debido a esas imágenes, no puedo hablar como yo misma. Solo como Juanita Pérez”.

LA BÚSQUEDA DE MATERIALES RELACIONADOS CON ABUSOS SEXUALES

Este año arrestaron a Joshua Gonzalez, un técnico en computación de Texas que tenía más de 400 imágenes de abuso sexual infantil en su computadora. En ese material estaban algunas fotografías de E. y de su hermana.

Gonzalez les dijo a las autoridades que había usado el motor de búsqueda de Microsoft, Bing, para encontrar algunas de las fotos y videos ilegales.

Durante mucho tiempo, Microsoft estuvo a la vanguardia en el combate de las imágenes relacionadas con abuso infantil, incluso creó la herramienta de detección PhotoDNA hace una década. Pero muchos delincuentes han recurrido a Bing para tener una herramienta confiable.

En enero, en un reporte encargado por TechCrunch, se descubrieron imágenes explícitas de niños en Bing cuando se usaban palabras de búsqueda como “porn kids”. Como respuesta a eso, Microsoft dijo que inhabilitaría los resultados que usaran esas palabras o algunas similares.

The New York Times creó un programa de computación que revisó Bing y otros motores de búsqueda. El texto automatizado encontró de manera repetida docenas de imágenes que el propio servicio de PhotoDNA identificó como contenido ilícito conocido. Bing incluso recomendaba otras palabras de búsqueda cuando se ingresaba un conocido sitio web de abuso infantil en la casilla de búsqueda.

Aunque el Times no vio las imágenes, sí informó de ellas al Centro Nacional para Niños Desaparecidos y Explotados y al Centro Canadiense para la Protección del Niño, los cuales trabajan para combatir el abuso sexual infantil en internet.

Búsquedas parecidas en DuckDuckGo y Yahoo, los cuales utilizan los resultados de Bing, también arrojaron imágenes de abuso infantil. En total, el Times encontró 75 imágenes de material que contenía abuso infantil en los tres motores de búsqueda antes de detener el programa de computación.

Tanto DuckDuckGo como Yahoo dijeron que dependían de Microsoft para filtrar el contenido ilícito.

Tras revisar los hallazgos del Times, Microsoft señaló que había descubierto una falla en sus prácticas de revisión y que estaba volviendo a analizar sus resultados de búsqueda. Pero al volver a aplicar el programa, se encontraron más materiales de ese tipo.

Los agresores de niños conocen bien las vulnerabilidades de Bing. Los pedófilos han utilizado Bing para encontrar imágenes ilícitas y también han instalado la función de “revertir la búsqueda de imagen”, la cual recupera imágenes con base en una fotografía de muestra.

Documentos independientes proporcionados por el centro canadiense demostraron que también se habían encontrado imágenes de abuso sexual infantil en Google. Una de ellas muestra a una mujer tocando los genitales de una niña desnuda de dos años. Google se negó a eliminar la fotografía, afirmando en un correo electrónico a los analistas canadienses que, aunque equivalía a pedofilia, “no es ilegal en Estados Unidos”.

Cuando el Times le preguntó a Google sobre esa y otras imágenes que fueron identificadas por los canadienses, un vocero reconoció que debieron haber sido eliminadas, y posteriormente lo hicieron. El vocero también dijo que la empresa no creía que fuera legal ninguna forma de pedofilia y que había sido un error enviar un mensaje diferente.

Una semana después de que retiraron las imágenes, el centro canadiense informó a Google sobre dos imágenes más. Google le dijo al centro que ninguna de ellas rebasaba “el límite fijado”, pero luego las eliminaron.

“Eso nos desconcierta”, comentó Lianna McDonald, directora ejecutiva del centro.

HAY DELINCUENTES POR TODAS PARTES

El problema no se limita a los motores de búsqueda.

A menudo, los pedófilos aprovechan varias tecnologías y plataformas, se reúnen en los chats de las aplicaciones y comparten imágenes en la nube.

El rastro digital de una joven víctima de abuso, una chica que fue violada por su padre durante cuatro años a partir de los 4 años de edad, tristemente es representativo de ese patrón.

Esta chica, que ahora es adolescente, no sabe que las imágenes de sus agresiones están en internet. Su madre y su padrastro desean que siga siendo así.

Los delincuentes sexuales con frecuencia comparten fotos y videos de las agresiones a esta chica. Cuando se detectan las imágenes, el FBI notifica a la familia de la chica o a su abogado. Durante los últimos cuatro años, han recibido 350 notificaciones.

Cuando la chica cumpla 18 años, podrá recibir legalmente los informes sobre el material. Su madre y su padrastro esperan que en ese momento esté más preparada para manejar la noticia. También tienen la esperanza de que para entonces las empresas de tecnología hayan podido eliminar las imágenes de internet.

Han pasado diez años desde que se desarrolló Photo DNA en Microsoft. Sin embargo, los esfuerzos de la industria por detectar y retirar fotografías ilegales conocidas siguen siendo disparejos y se mantienen en secreto.

La respuesta de la industria a los contenidos en video ha sido más deficiente. No existe una norma común para identificar el contenido ilegal de los videos, y muchas plataformas importantes ni siquiera lo buscan.

Durante muchos años, las empresas de tecnología han sabido que en sus plataformas se comparten videos que contienen abuso infantil. Un antiguo empleado de Twitter habló sobre gigabytes de videos ilegales que aparecían más rápido de lo que podían descargarse en Vine, el servicio de video, antes de que Twitter lo cerrara.

Eso fue en 2013, cuando había menos de 50.000 videos reportados. El año pasado, las empresas de tecnología mandaron más de 22 millones de videos al Centro Nacional para Niños Desaparecidos y Explotados, el organismo de intercambio de información sin fines de lucro que el gobierno federal autorizó para fungir como depositario de las imágenes.

Los esfuerzos para combatir este apremiante problema del contenido de los videos han enfrentado obstáculos creados por las propias empresas. Google, por ejemplo, desarrolló una tecnología de detección de videos que pone a disposición de otras empresas y Facebook también tiene un sistema. Pero ninguna de las dos puede compartir información porque las huellas digitales que genera cada tecnología no son compatibles.

En 2017, la industria de la tecnología aprobó un proceso para compartir las huellas digitales de los videos y así facilitar que todas las empresas detectaran el material ilícito. Pero este plan no ha llegado a ninguna parte.

La falta de acción en la industria ha permitido que videos indescriptiblemente atroces sigan en internet. De los 1,6 millones de huellas digitales del centro, menos del tres por ciento son de videos.

Ninguna de las mayores plataformas de almacenamiento en la nube busca material relacionado con agresiones sexuales cuando se suben los archivos.

Pese a que se pueden examinar los archivos después (cuando los usuarios los comparten, por ejemplo), algunos delincuentes han evitado ser detectados porque comparten sus claves de usuario y no los archivos en sí.

Un vocero de Amazon, la cual no analiza en forma alguna el material para buscar imágenes de agresiones sexuales, señaló que la “privacidad de la información de los clientes es esencial para ganarnos su confianza”. Microsoft Azure también dijo que no analiza el material exponiendo razones similares.

Muchos expertos forenses en herramientas digitales y autoridades judiciales dijeron que las empresas estaban siendo deshonestas al hacer alusión a la seguridad.

UN FUTURO INCIERTO

Un caso espantoso en Pensilvania se ha convertido en una advertencia acerca del tsunami de contenidos nuevos y difíciles de detectar sobre abusos sexuales que se transmiten a través de las plataformas de transmisión en vivo.

Más de una docena de hombres de todo el mundo se conectaron al software para convenciones de negocios Zoom con el fin de ver una transmisión en vivo de un hombre que agredía sexualmente a un niño de 6 años.

Ninguna de las empresas de tecnología más importantes puede detectar, y mucho menos detener, la transmisión en vivo mediante un análisis automatizado de imágenes.

Y aunque Facebook, Google y Microsoft han dicho que están desarrollando tecnologías para detectar fotografías y videos nuevos en sus plataformas, podrían pasar años antes de que alcancen la precisión de la detección basada en las huellas digitales de las imágenes conocidas.

En 2015, atraparon a los hombres del caso de Pensilvania solo porque Janelle Blackadar, una agente detective que trabaja con la policía de Toronto, descubrió la transmisión mientras realizaba una investigación encubierta. La detective grabó la transmisión con la tecnología de captura de pantalla y en unas cuantas horas alertó al agente especial Austin Berrier del departamento de investigaciones de Seguridad Nacional.

Al día siguiente, rescataron al niño de seis años y, a partir de entonces, han enviado a la cárcel a catorce hombres de diferentes estados.

En enero, el victimario, William Byers Augusta, de 20 años, recibió una sentencia de hasta 90 años en la cárcel.

 

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *