¿Tu inocencia digital tiene precio? Prepárate para dudar de todo lo que creías saber

Autor: X Mae | Publicado: 15 de julio de 2025
Image
Millones acceden a sitios “nudify” con IA dañinos. Un nuevo análisis revela que ganan millones y dependen de tecnología de empresas estadounidenses.



Recuerdo la primera vez que escuché la palabra «deepfake». Sonaba a ciencia ficción, a una distopía lejana donde la realidad y la ilusión se desdibujaban. Hoy, esa distopía ya no es un susurro; es un grito ahogado en millones de servidores, un negocio lucrativo que se ríe en la cara de nuestra ingenuidad. ¿Alguna vez te has preguntado quién está detrás de esa imagen «perfecta» que viste en línea? ¿O qué sucede realmente cuando haces clic en ese enlace aparentemente inofensivo? Abróchate el cinturón, porque la verdad es más perturbadora de lo que imaginas.

Hace años, cuando el concepto de «aplicaciones nudificadoras» comenzó a proliferar, lo vimos como una aberración marginal, un nicho oscuro de internet. Pero mientras nosotros desviábamos la mirada, la maleza crecía sin control. ¿Cuándo fue que permitimos que esto se convirtiera en un monstruo de millones de dólares? La respuesta, tristemente, es que ha estado sucediendo justo debajo de nuestras narices, en los rincones más insospechados del ciberespacio.

Imagina esto: con solo unos clics, cualquier foto que subas a la red, esa selfie inocente o la imagen de tu amiga en la playa, puede ser transformada. ¿El resultado? Imágenes no consensuales, abusivas, que en el peor de los casos, llegan a involucrar material de abuso sexual infantil. Sí, leíste bien. Y no estamos hablando de un puñado de sitios web; una investigación reciente de Indicator, una publicación dedicada a desentrañar el engaño digital, analizó 85 de estas plataformas de «nudificación» y «desvestido» con IA. ¿El dato escalofriante? Estos sitios han acumulado un promedio combinado de 18.5 millones de visitantes mensuales en los últimos seis meses. ¿Cómo es posible que esto siga ocurriendo a tal escala?

Aquí es donde la ironía se vuelve una bofetada. Para operar y mantenerse en línea, la mayoría de estos sitios dependen de servicios tecnológicos provistos por gigantes como Google, Amazon y Cloudflare. Piensa en ello: las mismas empresas que prometen protegernos y conectar el mundo, son, queramos o no, pilares fundamentales en la infraestructura de este «negocio» perverso. Alexios Mantzarlis, cofundador de Indicator e investigador de seguridad en línea, lo dijo sin rodeos: este ecosistema turbio se ha convertido en un «negocio lucrativo» que el «enfoque de laissez-faire de Silicon Valley hacia la IA generativa» ha permitido prosperar. ¿Por qué estas compañías, con sus vastos recursos y su supuesta ética, no han actuado con más contundencia?

Según la investigación, Amazon y Cloudflare proporcionan servicios de hosting o entrega de contenido a 62 de los 85 sitios, mientras que el sistema de inicio de sesión de Google ha sido utilizado en 54 de ellos. Y no solo eso, también utilizan sistemas de pago y otros servicios de empresas convencionales. Cuando se les preguntó, portavoces de Amazon Web Services y Google se apresuraron a recordar sus términos de servicio, asegurando que actúan rápidamente cuando se les informa de violaciones. Pero la realidad, como ha reportado WIRED, es que a pesar de que los periodistas tecnológicos han expuesto durante años cómo esta economía de deepfakes se ha aprovechado de los servicios convencionales, la acción integral ha sido, en el mejor de los casos, glacial.

Los creadores de estos sitios no solo generan imágenes perturbadoras; también generan millones. Se estima que 18 de estas plataformas han generado entre $2.6 millones y $18.4 millones en los últimos seis meses, lo que podría equivaler a unos $36 millones al año. Y ojo, esta es una estimación conservadora. El negocio es tan jugoso que, ¿cuál es la principal fuente de ingresos? La venta de «créditos» o suscripciones para generar estas imágenes. Desde 2019, cuando las apps de nudificación brotaron de las mismas herramientas usadas para crear los primeros deepfakes explícitos, la industria no ha hecho más que profesionalizarse.

Y ¿dónde está la mayor concentración de visitantes? La investigación revela que, sorprendentemente, Estados Unidos encabeza la lista, seguido por India, Brasil, México y Alemania. Esto no es un problema lejano, en una oscuridad recóndita de la web; es un problema global que nos toca a todos.

Algunos pasos se están dando, sí. San Francisco ha demandado a 16 servicios de generación de imágenes no consensuales, Microsoft ha identificado a desarrolladores de deepfakes de celebridades y Meta ha presentado una demanda contra una empresa de apps nudificadoras. Incluso, el Reino Unido está haciendo que sea ilegal crear deepfakes explícitos. Son movimientos, sin duda. Pero la pregunta que nos carcome es: ¿son suficientes para detener este torrente de abuso y dinero?

Henry Ajder, experto en IA y deepfakes que en 2020 fue uno de los primeros en vislumbrar el crecimiento de este ecosistema, lo resume perfectamente: «Solo cuando empresas como estas, que facilitan el ‘perverso viaje del cliente’ de las aplicaciones de nudificación, tomen medidas específicas, comenzaremos a ver un progreso significativo para hacer que estas aplicaciones sean más difíciles de acceder y de las que se obtenga ganancias.»

La verdad es que no podemos devolver este «regalo tóxico» de la era de la IA generativa, pero sí podemos reducir drásticamente su alcance. La responsabilidad es compartida: de las empresas tecnológicas para ser más proactivas, de los reguladores para actuar con la urgencia que el problema demanda, y de nosotros, los usuarios, para cuestionar, investigar y no ser cómplices silenciosos.

Entonces, la próxima vez que navegues por internet, ¿te detendrás un momento a pensar en la arquitectura invisible que sostiene lo que ves?


Fuentes para la incredulidad, y para la conciencia: