Cómo usan tu cara en estafas con IA sin que lo sepas

Una creciente red de operaciones delictivas en el sudeste asiático está reclutando a personas, principalmente mujeres jóvenes, como “modelos faciales de inteligencia artificial” para utilizar sus rostros en sofisticadas estafas que van desde mensajes de texto hasta videollamadas en tiempo real. Una investigación de WIRED reveló que docenas de canales en Telegram están difundiendo ofertas de empleo engañosas que prometen salarios altos y condiciones laborales atractivas, pero cuyo verdadero fin es incorporar a estas personas en esquemas de fraude que combinan inteligencia artificial y trata de personas.

https://youtube.com/watch?v=ldqlh4buH9c

Índice

Reclutamiento en redes y promesas falsas

Los anuncios, publicados mayoritariamente en Telegram, buscan candidatos que actúen como "modelos de IA" o "rostros reales" para operaciones ubicadas en zonas conocidas por albergar complejos de estafa, como Sihanoukville en Camboya. Las ofertas no incluyen datos de contacto ni especifican la empresa contratante, pero exigen requisitos como dominio de idiomas como el chino, inglés o ruso, y una disponibilidad extrema: hasta 150 videollamadas diarias. En algunos casos, se prometen hasta cuatro días libres al mes y salarios que alcanzan los 7,000 dólares, una cifra muy superior al promedio regional.

Los aspirantes, muchos de los cuales envían videos tipo selfie presentándose, detallan sus habilidades lingüísticas, experiencia en "relaciones con clientes" y conocimientos en criptomonedas o inversión en oro. Algunos incluso mencionan haber trabajado anteriormente en plataformas de estafa, utilizando técnicas para generar confianza y convencer a las víctimas de invertir dinero. Sin embargo, varias señales de alerta delatan la naturaleza fraudulenta de estos empleos: la retención del pasaporte, jornadas laborales excesivas, aislamiento y la exigencia de vivir dentro de instalaciones cerradas.

Puntos Clave
  • Reclutamiento de personas, principalmente mujeres jóvenes, mediante ofertas falsas en Telegram para usar sus rostros en estafas con inteligencia artificial
  • Las ofertas prometen salarios altos y buenas condiciones laborales, pero exigen hasta 150 videollamadas diarias y dominio de varios idiomas
  • Los candidatos son aislados, se les retiene el pasaporte y deben vivir en instalaciones cerradas, señal de trata de personas
  • La IA se utiliza para generar rostros reales o manipular imágenes en estafas románticas y financieras, incluyendo videollamadas en tiempo real

El rol de la IA en las estafas románticas

Imagen de rostro con efectos de IA y advertencia de seguridad
  • Los estafadores usan imágenes generadas o robadas para contactar a sus víctimas en redes sociales o apps de mensajería.
  • Tras establecer una relación emocional, intentan obtener dinero a cambio de falsas inversiones o préstamos.
  • Si la víctima pide una videollamada, se activa un sistema con modelos reales cuyos rostros son manipulados mediante tecnología de deepfake.
  • Estas videollamadas, consideradas cruciales para ganar confianza, se realizan desde “salas de IA” en los complejos de estafa.

Según Hieu Minh Ngo, investigador de ciberdelincuencia del grupo vietnamita ChongLuao, estos modelos no son simples empleados: sus rostros se superponen digitalmente sobre actores o empleados que manejan las conversaciones. “Les dan el software para intercambiar su cara usando IA y así realizar estafas románticas”, explica Ngo. Aunque algunos modelos podrían estar trabajando voluntariamente, otros podrían estar bajo coacción, con reportes de maltrato físico y acoso sexual dentro de estos recintos.

Indicios de fraude en las ofertas laborales

Las ofertas omiten mencionar directamente que se trata de estafas, pero incluyen múltiples banderas rojas: ubicaciones en zonas de alto riesgo, promesas de ingresos desproporcionados, exigencia de conocimiento en criptomonedas y el uso del término “cliente” para referirse a las víctimas. Frank McKenna, estratega de una firma antifraude, incluso logró interceptar una videollamada entre su madre y un supuesto inversionista, en la que notó irregularidades visuales y ecos de fondo que sugerían un entorno controlado con múltiples personas coordinando la interacción.

Tras meses de seguimiento, McKenna descubrió que una de las mujeres que apareció en la videollamada había publicado poco después un video idéntico al usado en la estafa, ahora ofreciéndose como modelo de IA para nuevas contrataciones. Esto sugiere la existencia de un mercado flotante de modelos que rotan entre diferentes operaciones delictivas, muchas veces sin ser plenamente conscientes del daño que causan.

Telegram, aunque afirma que sus políticas prohíben contenido relacionado con estafas, no ha eliminado los canales identificados. Un portavoz de la plataforma señaló que cada caso debe evaluarse individualmente, ya que “existen razones legítimas” para compartir parecidos. No obstante, expertos advierten que la facilidad con que estas redes operan pone en riesgo a miles de personas que buscan oportunidades laborales en contextos de vulnerabilidad económica.

Javier Mendoza Silva
Javier Mendoza Silva Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con enfoque en derechos humanos. Ha trabajado para medios impresos, digitales y radiofónicos en Latinoamérica.

Vota post
Mira tambien:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir