
Un martes cualquiera, Nicole Yelland recibió una solicitud de reunión de alguien que decía representar a una empresa de tecnología educativa con base en California. Había un logo bonito, una web bien armada, incluso una presentación con branding corporativo. Todo parecía legítimo. Hasta que no lo fue.
Yelland, que trabaja en relaciones públicas para una organización sin fines de lucro en Detroit, ya no responde a nadie sin antes pasar por su protocolo personal de verificación: búsqueda en Spokeo, prueba de idioma si dicen hablar español (“Traduce esta frase: el que mucho abarca, poco aprieta”), y una videollamada obligatoria… con cámara encendida. Nada de fotos de perfil de stock ni voces sin cuerpo. Si eso te suena paranoico, espera a ver lo que viene.
Vivimos en la era donde el escepticismo se ha vuelto una medida de higiene digital. ¿Quién eres? Ya no es una pregunta existencial. Es una exigencia práctica, casi desesperada.
Porque sí, los impostores digitales ya no son el típico príncipe nigeriano que quiere transferirte 20 millones. Son ejecutivos con LinkedIn activo, expertos en crear identidades falsas que sobreviven múltiples filtros, e incluso te miran a los ojos —o a lo que parecen ser ojos— en una videollamada.
¿Dónde ocurre esto? En todas partes. ¿Cuándo? Todo el tiempo. ¿Cómo? Con inteligencia artificial al servicio del crimen y una conectividad que borró las fronteras entre lo profesional y lo personal. Hoy, un simple “hola” en Instagram puede ser la puerta de entrada a una red de fraude transnacional.
En enero, Yelland cayó en una de esas trampas. Un proceso de selección aparentemente común: correos coherentes, entrevista vía Teams (con cámaras apagadas “por razones técnicas”), y un pedido final: su licencia de conducir “para completar el onboarding”. Ahí se encendieron todas las alarmas. Cerró la laptop como quien cierra la puerta a una dimensión paralela.
Y no es la única. Según la Comisión Federal de Comercio de EE. UU., las estafas laborales se han casi triplicado entre 2020 y 2024, y las pérdidas pasaron de 90 a 500 millones de dólares. ¿Qué pasó con confiar en la voz de alguien? Se la llevó el viento… o mejor dicho, un deepfake bien entrenado.

¿Quién vigila entonces al impostor? Irónicamente, la respuesta parece ser: nosotros mismos.
Daniel Goldman, ingeniero de software y ex fundador de startup, dice que ahora pide a sus familiares que lo verifiquen con un código si lo ven pedir algo por video o audio. ¿La clave? Si no usó la palabra clave acordada (en su caso, “lasagna”), no es él. Lo aprendió después de ver a un colega ser suplantado por una IA en una llamada en vivo. “Me entró el miedo de Dios”, confiesa.
Incluso algunos reclutadores, como Ken Schumacher, interrogan a los candidatos sobre detalles de su ciudad en el currículum: cafeterías favoritas, rutas de autobús, el clima de la semana pasada. Si titubean, se activa el modo Sherlock. Otros usan el “truco de la cámara del teléfono”: pedir que el interlocutor apunte su celular al monitor para desenmascarar posibles tecnologías de manipulación visual. La privacidad que se joda, lo importante es saber con quién estamos hablando realmente.
Pero este nivel de control tiene un precio. Desgasta. Consume tiempo. Genera una especie de duelo tácito: ya no confiamos de entrada, solo después de descartar todas las formas posibles de engaño. Nicole lo resume así: “Pierdo tanto tiempo en asegurarme de que la gente sea real, que apenas me queda para hacer mi trabajo”.
En la academia también están atrapados en este bucle. Jessica Eise, profesora en Indiana, ha convertido a su equipo de investigación en una especie de unidad CSI digital. ¿Respondiste el mail a las 3 a.m. hora del Este, pero dices vivir en Ohio? Mmm. ¿Tu edad es 22, pero tu nombre de usuario es [email protected]? Otro red flag. Todo por proteger datos y garantizar que, cuando estudian “seres humanos”, esos humanos realmente existan.
Lo irónico es que, en medio de este mar de tecnologías sofisticadas, lo que mejor está funcionando son estrategias de antaño: el olfato, la pregunta incómoda, el “muéstrame tu cara”. ¿Y si la IA avanza más rápido que nuestras defensas? Algunas empresas emergentes como GetReal Labs o Reality Defender prometen detectar deepfakes mejor que el ojo humano. Y hasta Sam Altman, CEO de OpenAI, creó Tools for Humanity, un sistema de escaneo ocular con blockchain para verificar la identidad. Suena cyberpunk, y lo es.
Pero mientras tanto, seguimos siendo nuestros propios antivirus.
La verdad es que ya no se trata solo de saber si ellos son quienes dicen ser. También está en juego quiénes somos nosotros cuando la confianza se vuelve un lujo. Cuando vivir significa desconfiar por default.
Así que dime, ¿cuándo fue la última vez que tuviste que demostrar que no eras un robot?
Fuentes:
WIRED: «Paranoia Is the Point»
US Federal Trade Commission (FTC): Consumer Sentinel Network Reports
OpenAI & Tools for Humanity: https://toolsforhumanity.com
Entrevistas y reportajes citados por WIRED, abril 2024.
Imagen destacada: Unsplash
¿Qué opinas? ¿Estamos exagerando… o apenas empezamos a abrir los ojos?
Te leo en los comentarios.
Más informaciones:

¿Y si Banksy no existe? El nuevo graffiti que nos toma por tontos (otra vez)

Del sexo a la fama (y de regreso): ¿Estamos todos vendiendo algo en línea?

¿Quién necesita varitas cuando tienes veneno? El nuevo Harry Potter, los niños elegidos y la maldición de Rowling

¿Un cartucho sin juego? El truco final de Nintendo para enterrar lo físico (y que aplaudas mientras lo hace)

Costa Rica: ¿NarcoGato o Estado Gato-tónico? El día que un felino puso en jaque al sistema penitenciario
En la tienda:
-
Camiseta lalalatv hombre
₡12200 – ₡13700 Seleccionar opciones Este producto tiene múltiples variantes. Las opciones se pueden elegir en la página de producto
