El creciente negocio de enseñar a hacer deepfakes de IA usando fotos de mujeres reales

Hace poco más de un año, MG vivía como una típica veinteañera en Scottsdale, Arizona. Trabajaba como asistente personal y, los fines de semana, atendía mesas en un restaurante. Como la mayoría de sus pares, tenía una cuenta de Instagram donde, de forma esporádica, compartía stories y fotos tomando matcha, pasando el rato en la piscina con amigas o asistiendo a clases de pilates. Con poco más de 9 000 seguidores, MG nunca buscó la fama en redes sociales; las utilizaba “para compartir mi vida con las personas más cercanas”, según sus propias palabras.

El verano pasado recibió un mensaje de un seguidor que le informó que circulaban en Instagram fotos y videos de una mujer idéntica a ella. Al pulsar el enlace, MG se encontró con una imagen en la que su rostro aparecía superpuesto a un cuerpo prácticamente idéntico al suyo, semidesnudo y con los mismos tatuajes. “Si no me conocieras bien, podrías pensar que son desnudos míos”, relató, añadiendo que la situación la dejó sin control sobre su propia imagen.

Índice

Demanda contra los creadores de IA pornográfica

MG es una de las tres demandantes en una acción judicial presentada en enero en Arizona contra tres hombres de Phoenix —Jackson Webb, Lucas Webb y Beau Schultz— y contra más de cincuenta “John Does”. La demanda alega que los acusados buscaban fotos de mujeres jóvenes desprevenidas en internet, las introducían en el software llamado CreatorCore y, mediante la plataforma AI ModelForge, generaban imágenes y videos pornográficos que luego vendían en la suscripción de Fanvue.

Según la acusación, los demandados cobraban 24,95 dólares al mes en la plataforma Whop por cursos en línea que enseñaban a otros hombres a “crear sus propios influencers de IA” a partir de fotos reales. Los materiales incluían manuales para raspar imágenes de cuentas públicas, cargar esas fotos al modelo generativo y usar una aplicación que “quitaba la ropa” a las mujeres, produciendo contenido sexualmente explícito. La demanda indica que, en un mes, esas actividades generaron más de 50 000 dólares en ingresos y acumulaban millones de visualizaciones.

Los demandantes afirman que el modelo de negocio se basaba en un “harén de copias de IA indistinguibles de mujeres y niñas desprevenidas”. En 2025, la plataforma CreatorCore contaba con más de 8 000 suscriptores, quienes habían creado más de 500 000 imágenes y videos de este tipo.

AI ModelForge, según la demanda, ahora opera bajo el nombre de “TaviraLabs” y mantiene un grupo de Telegram con más de 18 000 miembros que se promociona como “la comunidad de coaching de AI Influencer nº 1”. Además, la acción judicial enumera una docena de cuentas de Instagram y varias de TikTok que continúan publicando fotos de mujeres jóvenes, autos de lujo y relojes caros, con subtítulos como “No es mi novia, es mi empleada mejor paga”.

Puntos Clave
  • MG, una joven de 20 años de Scottsdale, descubrió que su rostro había sido usado en deepfakes pornográficos sin su consentimiento, generados a partir de fotos públicas de Instagram
  • Una demanda presentada en enero en Arizona acusa a tres hombres de Phoenix y a más de cincuenta “John Does” de crear y vender esos contenidos pornográficos usando el software CreatorCore y la plataforma AI ModelForge
  • Los demandados ofrecían cursos en línea por 24,95 USD al mes en la plataforma Whop, enseñando a otros a “crear sus propios influencers de IA” mediante la extracción de imágenes de cuentas públicas y el uso de herramientas que “quitan la ropa” a las mujeres
  • Las víctimas, entre ellas MG, alegan que el negocio de deepfakes viola su derecho a la privacidad y a controlar su propia imagen, y buscan responsabilidad legal contra los creadores y distribuidores del contenido.

MG y sus co‑demandantes han intentado sin éxito que Instagram elimine las imágenes; la red social afirma que el contenido “no infringe sus directrices sobre material generado por IA”. Un portavoz de TikTok, por su parte, aseguró que las cuentas involucradas violaban sus normas y habían sido eliminadas.

Marco legal y desafíos regulatorios

El creciente negocio de enseñar a hacer deepfakes de IA usando fotos de mujeres reales

En el ámbito federal, la “Take It Down Act”, promulgada por el presidente Trump en mayo de 2025, prohíbe la publicación de pornografía generada por IA sin consentimiento y obliga a las plataformas a retirar dicho contenido en 48 horas tras su detección. La ley entrará en vigor en mayo de 2026. A nivel estatal, la mayoría de los estados, incluido Arizona, han aprobado normas contra los deepfakes, aunque suelen ser reactivas más que preventivas.

El legislador estatal de Arizona, Nick Kupper, presentó un proyecto de ley que obliga a los sitios web a emplear herramientas automáticas de detección y a requerir formularios de consentimiento para evitar la publicación de contenido de IA no consensuado. “Una vez que algo está en línea, permanece allí para siempre; es como jugar al Whac‑a‑Mole”, comentó Kupper.

Los abogados que representan a MG —Nick Brand y la abogada Cristina Pérez Hasano— señalan que el caso muestra cómo grupos de jóvenes con conocimientos tecnológicos explotan a mujeres con perfiles modestos en redes sociales, instruyendo a sus suscriptores a dirigirse a mujeres con menos de 50 000 seguidores para evitar problemas legales.

MG asegura que, aunque las imágenes generadas con AI ModelForge son “suficientemente distintas” de sus fotos para dificultar una denuncia directa, la similitud de su rostro y tatuajes la hace reconocerlas al instante. “Vivo con el temor constante de que personas de mi entorno vean esas imágenes”, confesó, pero también afirmó que la demanda le ha devuelto parte de su autonomía y la motivación para que otras mujeres comprendan el riesgo.

El caso de MG, una mujer con menos de diez mil seguidores, plantea una amenaza para cualquier usuario con presencia pública en línea. “No se trata solo de ser precavido con la imagen; todos usamos redes sociales, y esto podría pasarle a cualquiera”, concluyó.

Javier Mendoza Silva
Javier Mendoza Silva Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con enfoque en derechos humanos. Ha trabajado para medios impresos, digitales y radiofónicos en Latinoamérica.

Vota post
Mira tambien:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir