El creciente negocio de enseñar a hacer deepfakes de IA usando fotos de mujeres reales
Hace poco más de un año, MG vivía como una típica veinteañera en Scottsdale, Arizona. Trabajaba como asistente personal y, los fines de semana, atendía mesas en un restaurante. Como la mayoría de sus pares, tenía una cuenta de Instagram donde, de forma esporádica, compartía stories y fotos tomando matcha, pasando el rato en la piscina con amigas o asistiendo a clases de pilates. Con poco más de 9 000 seguidores, MG nunca buscó la fama en redes sociales; las utilizaba “para compartir mi vida con las personas más cercanas”, según sus propias palabras.

El verano pasado recibió un mensaje de un seguidor que le informó que circulaban en Instagram fotos y videos de una mujer idéntica a ella. Al pulsar el enlace, MG se encontró con una imagen en la que su rostro aparecía superpuesto a un cuerpo prácticamente idéntico al suyo, semidesnudo y con los mismos tatuajes. “Si no me conocieras bien, podrías pensar que son desnudos míos”, relató, añadiendo que la situación la dejó sin control sobre su propia imagen.
Demanda contra los creadores de IA pornográfica
MG es una de las tres demandantes en una acción judicial presentada en enero en Arizona contra tres hombres de Phoenix —Jackson Webb, Lucas Webb y Beau Schultz— y contra más de cincuenta “John Does”. La demanda alega que los acusados buscaban fotos de mujeres jóvenes desprevenidas en internet, las introducían en el software llamado CreatorCore y, mediante la plataforma AI ModelForge, generaban imágenes y videos pornográficos que luego vendían en la suscripción de Fanvue.
Según la acusación, los demandados cobraban 24,95 dólares al mes en la plataforma Whop por cursos en línea que enseñaban a otros hombres a “crear sus propios influencers de IA” a partir de fotos reales. Los materiales incluían manuales para raspar imágenes de cuentas públicas, cargar esas fotos al modelo generativo y usar una aplicación que “quitaba la ropa” a las mujeres, produciendo contenido sexualmente explícito. La demanda indica que, en un mes, esas actividades generaron más de 50 000 dólares en ingresos y acumulaban millones de visualizaciones.
Los demandantes afirman que el modelo de negocio se basaba en un “harén de copias de IA indistinguibles de mujeres y niñas desprevenidas”. En 2025, la plataforma CreatorCore contaba con más de 8 000 suscriptores, quienes habían creado más de 500 000 imágenes y videos de este tipo.
AI ModelForge, según la demanda, ahora opera bajo el nombre de “TaviraLabs” y mantiene un grupo de Telegram con más de 18 000 miembros que se promociona como “la comunidad de coaching de AI Influencer nº 1”. Además, la acción judicial enumera una docena de cuentas de Instagram y varias de TikTok que continúan publicando fotos de mujeres jóvenes, autos de lujo y relojes caros, con subtítulos como “No es mi novia, es mi empleada mejor paga”.
MG y sus co‑demandantes han intentado sin éxito que Instagram elimine las imágenes; la red social afirma que el contenido “no infringe sus directrices sobre material generado por IA”. Un portavoz de TikTok, por su parte, aseguró que las cuentas involucradas violaban sus normas y habían sido eliminadas.
Marco legal y desafíos regulatorios

En el ámbito federal, la “Take It Down Act”, promulgada por el presidente Trump en mayo de 2025, prohíbe la publicación de pornografía generada por IA sin consentimiento y obliga a las plataformas a retirar dicho contenido en 48 horas tras su detección. La ley entrará en vigor en mayo de 2026. A nivel estatal, la mayoría de los estados, incluido Arizona, han aprobado normas contra los deepfakes, aunque suelen ser reactivas más que preventivas.
El legislador estatal de Arizona, Nick Kupper, presentó un proyecto de ley que obliga a los sitios web a emplear herramientas automáticas de detección y a requerir formularios de consentimiento para evitar la publicación de contenido de IA no consensuado. “Una vez que algo está en línea, permanece allí para siempre; es como jugar al Whac‑a‑Mole”, comentó Kupper.
Los abogados que representan a MG —Nick Brand y la abogada Cristina Pérez Hasano— señalan que el caso muestra cómo grupos de jóvenes con conocimientos tecnológicos explotan a mujeres con perfiles modestos en redes sociales, instruyendo a sus suscriptores a dirigirse a mujeres con menos de 50 000 seguidores para evitar problemas legales.
MG asegura que, aunque las imágenes generadas con AI ModelForge son “suficientemente distintas” de sus fotos para dificultar una denuncia directa, la similitud de su rostro y tatuajes la hace reconocerlas al instante. “Vivo con el temor constante de que personas de mi entorno vean esas imágenes”, confesó, pero también afirmó que la demanda le ha devuelto parte de su autonomía y la motivación para que otras mujeres comprendan el riesgo.
El caso de MG, una mujer con menos de diez mil seguidores, plantea una amenaza para cualquier usuario con presencia pública en línea. “No se trata solo de ser precavido con la imagen; todos usamos redes sociales, y esto podría pasarle a cualquiera”, concluyó.
Mira tambien:
Descubre el truco para que Google siempre te muestre WIRED
¡Ventajas y Desventajas de TikTok: ¡Descubre la Verdad!
¡Ventajas y Desventajas de Facebook: ¡Descubre la Verdad!
Deja una respuesta