Meta, la empresa matriz de Facebook, Instagram, Messenger y WhatsApp, instruyó a los moderadores de contenido de sus plataformas para que “asuman que se trata de un adulto” cuando no estén seguros de la edad de una persona en una foto o video.
Facebook es una de las empresas tecnológicas líderes en la detección de contenidos de abuso sexual a menores, que se han disparado en las redes sociales y en internet en los últimos años. No obstante, la preocupación por acusar por error a las personas que publican imágenes ilegales ha dado lugar a una política que podría permitir que las fotos y los videos de abusos no se denuncien.
Meta, la empresa matriz de Facebook, Instagram, Messenger y WhatsApp, instruyó a los moderadores de contenido de sus plataformas para que “asuman que se trata de un adulto” cuando no estén seguros de la edad de una persona en una foto o video, según un documento de capacitación corporativa.
Antigone Davis, directora de seguridad de Meta, confirmó la política en una entrevista y dijo que se debe a la preocupación por la privacidad de quienes publican imágenes sexuales de adultos. “El abuso sexual de menores en internet es abominable”, dijo Davis, y subrayó que Meta emplea un proceso de revisión riguroso y de varios niveles que señala muchas más imágenes que cualquier otra empresa tecnológica. Afirmó que las consecuencias de señalar por error un abuso sexual a un menor puede “cambiar la vida” de los usuarios.
Aunque es imposible cuantificar la cantidad de imágenes que pueden clasificarse de manera errónea, los expertos en seguridad infantil señalan que no hay duda de que la empresa ha pasado por alto a algunos menores. Algunos estudios han descubierto que el desarrollo físico de los niños se produce en una etapa más temprana que en el pasado. Además, ciertas razas y etnias entran en la pubertad a edades más tempranas y, por ejemplo, algunos niños negros e hispanos lo hacen antes que los caucásicos.
“Estamos viendo a toda una población de jóvenes que está desprotegida”, comentó Lianna McDonald, directora ejecutiva del Centro Canadiense para la Protección de la Infancia, una organización que da seguimiento a las imágenes a nivel mundial.
Todo el día, los moderadores revisan millones de fotos y videos de todo el mundo para determinar si violan las reglas de conducta de Meta o son ilegales. El año pasado, la empresa presentó cerca de 27 millones de reportes de sospecha de abuso infantil a un centro nacional de intercambio de información en Washington, que luego decide si los remite a las autoridades. La empresa es responsable de más del 90 por ciento de las denuncias realizadas al centro de intercambio de información.
El documento de capacitación, obtenido por The New York Times, fue creado por moderadores que trabajan para Accenture, una consultora que tiene un contrato para clasificar los contenidos nocivos de Facebook y eliminarlos del sitio. Un estudiante de Derecho, Anirudh Krishna, reveló por primera vez la política de edad en la revista California Law Review y escribió el año pasado que algunos moderadores de Accenture no estaban de acuerdo con esta práctica, a la que se referían como “ascender” a los adolescentes a adultos jóvenes.
Accenture se negó a hacer comentarios sobre esta práctica.
Por ley, las empresas tecnológicas están obligadas a informar sobre el material de abuso sexual infantil “aparente”, pero el término “aparente” no está definido por la ley. La Ley de Comunicaciones Almacenadas, una ley de privacidad, protege a las empresas de la responsabilidad al hacer los informes, pero Davis dijo que la ley no establecía con claridad si protegería a Meta si informaba sobre una imagen y cometía un error. Comentó que los legisladores de Washington debían establecer una “norma clara y coherente” que todos pudieran seguir.
Los expertos en políticas legales y tecnológicas indicaron que la situación no es nada sencilla para las empresas de redes sociales. Si no denuncian las imágenes presuntamente ilícitas, pueden ser perseguidas por las autoridades; si denuncian imágenes legales como material de abuso sexual infantil, pueden ser demandadas y acusadas de actuar con imprudencia.
“No he podido encontrar ningún tribunal que se aproxime a responder a la pregunta de cómo lograr este equilibrio”, declaró Paul Ohm, quien fue fiscal de la división de delitos informáticos del Departamento de Justicia y que ahora es profesor de Derecho en Georgetown. “No creo que sea descabellado que los abogados que se encuentran en esta situación inclinen la balanza en aras de la privacidad”.
Charlotte Willner, quien dirige una asociación de profesionales de la seguridad en línea y que anteriormente trabajó en cuestiones de seguridad en Facebook y Pinterest, dijo que las preocupaciones sobre la privacidad significan que las empresas “no tienen ningún incentivo para asumir riesgos”.
Sin embargo, McDonald, del centro canadiense, afirmó que las reglas deben estar a favor de “proteger a los niños”, tal como sucede en el comercio. Citó el ejemplo de los vendedores de cigarros y alcohol, a quienes se capacita para pedir una identificación en caso de tener dudas sobre la edad del consumidor.
Los representantes de Apple; Snap, propietaria de Snapchat, y TikTok dijeron que sus empresas adoptaron el enfoque opuesto al de Meta y que denuncian cualquier imagen sexual en la que la edad de una persona esté en duda. Otras empresas que escanean sus servicios en busca de imágenes ilegales, como Dropbox, Google, Microsoft y Twitter, declinaron hacer comentarios sobre sus prácticas.
En entrevistas, cuatro moderadores de contenido que trabajaron para Meta dijeron que se encontraban a diario con imágenes sexuales sujetas a la política de edad. Los moderadores afirmaron que podían ser objeto de evaluaciones de desempeño negativas si hacían demasiadas denuncias que se consideraban fuera de la política. Hablaron con la condición de permanecer en el anonimato debido a los acuerdos de confidencialidad y a la preocupación por de tener empleo en el futuro.
“Dejaban pasar tantas cosas que al final ya no mencionábamos”, dijo uno de los exmoderadores, que describió haber identificado imágenes de abuso sexual oral y otros actos explícitos durante su empleo de dos años en Accenture. “Nos daban una excusa loca y descabellada como: ‘Esa parte borrosa podría ser vello púbico, así que tenemos que dejarlo pasar por si se trata de un adulto joven’”, agregó.
El número de denuncias de presuntos abusos sexuales a menores ha crecido de manera exponencial en los últimos años. El elevado volumen, que aumentó de alrededor de 100.000 en 2009, ha abrumado al centro nacional de intercambio de información al igual que a las autoridades de procuración de justicia. Una investigación realizada en 2019 por el Times descubrió que el FBI solo podía gestionar su volumen de casos desde el centro de intercambio de información limitando su enfoque a los bebés y niños pequeños.
Davis mencionó que una política que provocara más denuncias podría empeorar la saturación de casos. “Si el sistema está demasiado lleno de cosas que no son útiles”, dijo, “entonces, esto crea una verdadera carga”.
Pero algunos investigadores actuales y pasados dijeron que las autoridades son quienes deben tomar la decisión.
“Nadie debería decidir no denunciar un posible delito, en especial si se trata de un delito contra un menor, solo porque cree que la policía está demasiado ocupada”, dijo Chuck Cohen, quien dirigió un grupo de trabajo sobre explotación infantil en Indiana durante 14 años.