En Herzliya, Israel, la policía detuvo el 21 de abril de 2025 a dos estudiantes menores de edad sospechosas de crear y difundir imágenes falsas de desnudos generadas por inteligencia artificial, conocidas como “deepfakes”, de un profesor y varias compañeras de su escuela.
Según un portavoz de la policía, las jóvenes presuntamente utilizaron fotos obtenidas de redes sociales, las manipularon con software de IA para hacer que las personas aparecieran desnudas y distribuyeron las imágenes entre estudiantes y en plataformas en línea.
Las autoridades llevaron a las sospechosas a la estación de Glilot para interrogarlas y confiscaron sus dispositivos electrónicos tras realizar registros en sus hogares. La investigación comenzó después de que las imágenes circularan, lo que llevó a una rápida intervención policial.
El caso de Herzliya se suma a una serie de incidentes similares en escuelas a nivel global, donde el uso de herramientas de inteligencia artificial para crear contenido explícito falso ha generado alarma. En abril de 2024, la Asociación Nacional de Educación de Estados Unidos (NEA) reportó un aumento en los casos de deepfakes dirigidos principalmente a estudiantes femeninas, destacando que estas imágenes causan daños psicológicos, reputacionales y violaciones de privacidad.
Un informe de la NEA señaló que las niñas son más propensas a ser víctimas de acoso en línea, con un estudio de 2025 de Incogni y la Organización Nacional de Mujeres indicando que una de cada cuatro mujeres en Estados Unidos ha experimentado abuso en línea, incluyendo un 9% de naturaleza sexual.
En un caso similar en Sydney, Australia, en enero de 2025, un estudiante de secundaria fue investigado por crear imágenes deepfake pornográficas de compañeras, utilizando fotos de redes sociales y eventos escolares. La policía de Nueva Gales del Sur colaboró con la escuela y la comisaría de seguridad en línea para abordar el caso, según reportó ABC News.
Asimismo, en Johor, Malasia, en abril de 2025, un estudiante de 16 años fue arrestado tras generar y vender imágenes deepfake explícitas de sus compañeras por 2 ringgit cada una, lo que llevó a 29 denuncias policiales, de acuerdo con el medio The Star. En Pennsylvania, Estados Unidos, en noviembre de 2024, una escuela privada enfrentó un escándalo cuando se descubrieron imágenes deepfake de estudiantes femeninas, lo que se saldó con una investigación criminal y la salida de líderes escolares, según informó Newsday.
La proliferación de herramientas de IA ha facilitado la creación de deepfakes, que requieren solo una fotografía para generar contenido hiperrealista. Un reporte de Thorn, una organización sin fines de lucro enfocada en la seguridad infantil en línea, reveló en marzo de 2025 que uno de cada ocho jóvenes de 13 a 20 años en Estados Unidos conoce a alguien que ha sido víctima de deepfakes pornográficos, y uno de cada 17 ha sido objetivo directo.
El 71% de los adolescentes que crearon estas imágenes encontraron las herramientas en redes sociales, mientras que el 53% las obtuvo mediante motores de búsqueda. En el Reino Unido, un estudio de Internet Matters estimó que 530,000 adolescentes han encontrado deepfakes de desnudos.
A nivel legislativo, varios países han comenzado a abordar este problema. En Estados Unidos, 39 estados han introducido 136 proyectos de ley para combatir deepfakes íntimos no consensuados, según Public Citizen. En Australia, el Senado aprobó en agosto de 2023 una ley contra la pornografía deepfake no consensuada, mientras que en la Unión Europea, el EU AI Act busca regular estas tecnologías.
En Pennsylvania, una ley estatal que entró en vigor en diciembre de 2024 criminaliza la creación y difusión de material de abuso sexual infantil generado por IA. En Corea del Sur, la policía lanzó en 2024 una campaña de siete meses para combatir contenido deepfake explícito, con penas más estrictas y mayor regulación de redes sociales, según AP News.
Los incidentes en escuelas han expuesto las dificultades para controlar la difusión de deepfakes. En un caso en Baltimore en 2024, un director atlético de una escuela secundaria fue arrestado por crear un audio deepfake racista y antisemita que imitaba al director, causando amenazas a su seguridad y su suspensión temporal, reportó The New York Times.
En Florida, dos adolescentes fueron acusados en 2023 bajo una ley estatal de 2022 por generar imágenes deepfake de compañeras, marcando el primer caso criminal de este tipo, según WIRED. Sin embargo, expertos como Riana Pfefferkorn, del Instituto de Inteligencia Artificial Centrada en lo Humano de Stanford, han cuestionado la eficacia de arrestar a menores, argumentando que puede no resolver el problema y causar daños duraderos a los jóvenes involucrados.
La facilidad de acceso a aplicaciones de “nudificación” ha agravado la situación. En 2019, la aplicación DeepNude permitía generar imágenes desnudas a partir de fotos vestidas, y aunque fue prohibida, herramientas similares siguen disponibles. Un análisis de Genevieve Oh en 2023 encontró un aumento del 290% en contenido explícito generado por IA en las diez principales plataformas en línea. En respuesta, plataformas como eSafety en Australia han reportado una tasa de éxito del 90% en la eliminación de material deepfake tras denuncias.
Los casos también han resaltado el impacto en las víctimas. En Bacchus Marsh, Australia, en junio de 2024, una madre describió cómo su hija de 16 años quedó físicamente enferma tras descubrir imágenes deepfake de sus compañeras, según The Guardian.
En Melbourne, en febrero de 2025, dos estudiantes fueron suspendidos tras circular imágenes deepfake de estudiantes femeninas, y la policía aún investigaba la cantidad de víctimas, informó ABC News. Las autoridades han resaltado la necesidad de apoyo psicológico para las víctimas, con escuelas ofreciendo consejería y servicios de bienestar.
La policía de Herzliya continúa su investigación, y los dispositivos confiscados están siendo analizados para determinar el alcance de la difusión de las imágenes. Las autoridades no han revelado los nombres de las sospechosas ni de las víctimas para proteger su privacidad, y el caso permanece en curso.