
Imagina la escena: es lunes por la mañana. Tu hija se toma un selfie rápido antes de entrar a clase, lo sube a Instagram y recibe los «likes» de siempre. Ella cree que está compartiendo un momento; lo que no sabe es que, en el pupitre de atrás, un compañero acaba de descargar esa misma foto. No para admirar su sonrisa, sino para pasarla por una aplicación de «nudify». En tres segundos, con la frialdad de un algoritmo, ella está desnuda. Y para cuando suena el timbre del primer receso, su cuerpo falso ya está recorriendo los teléfonos de toda la secundaria.
Bienvenidos a la nueva era del acoso escolar, donde la tecnología no solo ha acortado distancias, sino que ha democratizado la capacidad de destruir vidas con un par de clics.
La epidemia silenciosa (que ya no se puede callar)
Si creías que esto era un problema aislado de algún rincón oscuro de internet, despierta. Un análisis reciente de WIRED e Indicator ha mapeado este desastre: al menos 90 escuelas y 600 estudiantes en todo el mundo ya han sido golpeados por esta crisis de desnudos generados por IA. Y esto es solo la punta del iceberg que asoma sobre el agua.
Desde 2023, la tendencia ha dejado de ser un goteo para convertirse en una hemorragia. En más de 28 países, adolescentes —en su gran mayoría varones de secundaria— están utilizando la IA generativa para convertir a sus compañeras en material de abuso sexual infantil (CSAM). No son «bromas pesadas»; son delitos federales disfrazados de travesura tecnológica.
Lo más irónico —y doloroso— es lo barato que sale ser un villano hoy en día. Mientras las empresas detrás de estas aplicaciones de «desnudar» facturan millones de dólares al año, las víctimas se quedan con una cuenta que no pueden pagar: la de su salud mental. «Tengo miedo de que cada vez que me vean, vean esas fotos», confesaba una víctima en Iowa. No es para menos. Saber que tu imagen digital, esa que te seguirá por el resto de tu vida, está ahora en manos de depredadores o circulando en grupos de WhatsApp, genera una desesperanza que ningún filtro de Instagram puede ocultar.
El anuario como «lista de compras»
La situación ha llegado a un punto tan surrealista que en Corea del Sur y Australia, las escuelas están tomando medidas que parecen sacadas de un episodio de Black Mirror: han dejado de publicar fotos de los alumnos en redes sociales o incluso han dado la opción de no aparecer en el anuario.
El mensaje implícito es aterrador: si existes digitalmente, eres vulnerable. Los anuarios ya no son recuerdos de la juventud; son catálogos para que un algoritmo te arranque la ropa.
¿Y por qué lo hacen? No siempre es por gratificación sexual. A veces es por aburrimiento, por una apuesta entre amigos o, como señala el investigador Siddharth Pillai, por puro control social y humillación. La IA ha bajado tanto la barrera técnica que ya no necesitas ser un hacker; solo necesitas ser lo suficientemente cruel.
Un sistema que llega tarde y mal
Lo más frustrante de esta narrativa no es solo la tecnología, sino la parálisis de los adultos. Escuelas que tardan tres días en llamar a la policía, directores que no saben cómo manejar evidencia digital y políticos que caminan a paso de tortuga mientras la IA corre a velocidad de fibra óptica.
En Pensilvania, dos estudiantes admitieron haber creado imágenes de 60 niñas. ¿Su castigo? 60 horas de servicio comunitario. Mientras tanto, esas 60 niñas tendrán que monitorear internet por el resto de sus vidas. El desequilibrio es obsceno.
Pero en medio de este caos, son las propias adolescentes quienes están tomando el guion en sus manos. Desde huelgas estudiantiles hasta la creación de leyes como el Take It Down Act en EE. UU. (que exige eliminar imágenes íntimas no consensuadas en 48 horas), las víctimas están dejando de serlo para convertirse en las únicas adultas en la sala.
Incluso los profesores han caído en la mira. En Oregón, una escuela tuvo que contratar sustitutos porque los docentes se negaron a ir a trabajar tras ser víctimas de deepfakes donde se les veía en situaciones humillantes o armados. Nadie está a salvo cuando la realidad se vuelve opcional.
Estamos fallando en lo más básico: creer que el problema es la herramienta y no la cultura que decide usarla para denigrar. Hemos llenado las aulas de iPads, pero nos olvidamos de llenarlas de ética.
Si hoy mismo descubrieras que una imagen manipulada de alguien a quien amas circula por el chat de su escuela, ¿confiarías en que el sistema educativo tiene las herramientas para protegerle, o sentirías que estás luchando contra un fantasma que nadie sabe cómo atrapar?
Fuente consultada:

