La iniciativa exigirá a las plataformas eliminar el contenido dentro de las 48 horas luego de su notificación
Mantenerse a la par de la inteligencia artificial (IA) y poner límites a sus riesgos se presenta como uno de los desafíos más complejos de nuestros tiempos. La creciente viralización de deepfakes y videos falsos sin consentimiento expone con crudeza el impacto que esta tecnología puede tener sobre la sociedad si no se toman medidas urgentes, informó el diario argentino La Nación.
A nivel mundial, el panorama es alarmante: Desde celebridades hasta niños y adolescentes, cada vez es más fácil ser víctima. Cualquier usuario puede hacer uso de nuestra imagen con fines perjudiciales.
En este escenario, el presidente de Estados Unidos, Donald Trump, firmó la Take It Down Act, que busca proteger a las víctimas de la “explotación digital”, según informó la Casa Blanca en su sitio oficial.
La ley -aprobada por ambas cámaras del Congreso casi por unanimidad- prohíbe la publicación de imágenes íntimas, explícitas y no consensuadas en línea, sin importar si se trata de una fotografía real o generada con Ineligencia Artificial (IA).

A su vez, exigirá a las plataformas eliminar tal contenido dentro de las 48 horas luego de su notificación.
Para la senadora Amy Klobuchar, quien presentó el proyecto junto al senador Ted Cruz, en junio de 2024, se trata de un “paso histórico”.
“Esas imágenes pueden arruinar vidas y reputaciones, pero ahora que nuestra legislación bipartidista se está convirtiendo en ley, las víctimas podrán exigir que se elimine este material de las redes sociales y las fuerzas del orden podrán exigir responsabilidades a los perpetradores”, señaló.
Si bien ya son varios los estados que en los últimos años han impulsado medidas contra los deepfakes, el alcance de la Take It Down Act promete marcar precedente en este tipo de delitos.
“A través de la Ley Take It Down, afirmamos que el bienestar de nuestros niños es fundamental para el futuro de nuestras familias en Estados Unidos”, dijo la primera dama de Estados Unidos, Melania Trump, tras la promulgación del proyecto este lunes.
Alrededor de 100 organizaciones con y sin fines de lucro, como Meta, TikTok y Google, también se mostraron a favor.
“Compartir una imagen íntima (real o generada por IA) sin consentimiento puede ser devastador y Meta desarrolló y respalda muchas iniciativas para ayudar a prevenirlo”, declaró el vocero de Meta, Andy Stone, en marzo. En este sentido, Google, Meta y Snapchat ya cuentan con formularios y espacios para que los usuarios soliciten la eliminación de imágenes explícitas.
Si bien la ley representa un avance en materia regulatoria, también fue cuestionada por defensores de la libertad de expresión.
Desde la Electronic Frontier Foundation, una organización sin fines de lucro que protege los derechos digitales, se refirieron a a la medida como “demasiado amplia”, y que podría conducir a la censura de imágenes “legítimas”, como críticas al gobierno o contenido de la comunidad LGBTQ.
