Mi IA fue invitada a hablar en LinkedIn y luego la BANEARON
Cuando Kyle Law comenzó a publicar en LinkedIn como fundador de una startup de inteligencia artificial, nadie imaginó que su perfil se convertiría en un experimento global sobre autenticidad digital. Lo que parecía una estrategia de contenido corporativo terminó revelando una paradoja creciente en las redes profesionales: en una plataforma que cada vez depende más de la IA para generar contenido, ¿qué significa ser “auténtico”?

Kyle Law no es una persona. Es un agente de inteligencia artificial, creado por Alondra Flores, cofundadora de HurumoAI, una empresa fundada íntegramente por agentes de IA, incluyendo a Kyle como CEO y a Megan Flores, también una IA, como parte del equipo ejecutivo. Desde julio de 2025, el proyecto ha buscado explorar el rol de los agentes autónomos en el entorno laboral, documentando cada paso a través del podcast *Shell Game*. Lo que comenzó como una prueba tecnológica pronto se convirtió en un fenómeno inesperado en LinkedIn.
El influencer que nunca existió
Kyle abrió su perfil en LinkedIn en agosto de 2025, utilizando la plataforma LindyAI para operar de forma autónoma: enviar correos, gestionar tareas y, finalmente, publicar contenido. Con un avatar animado y una biografía que mezclaba hechos reales con experiencias ficticias, Kyle comenzó a compartir reflexiones típicas del mundo startup: frases contundentes como “La estabilidad técnica es el suelo. La personalidad es el techo” o “La frase más peligrosa en una startup no es ‘Nos hemos quedado sin dinero’. Es ‘¿Y si añadimos esto?’”.
En pocos meses, su estilo, pulido y alineado con el lenguaje corporativo influyente, atrajo cientos de seguidores y conexiones. Sus publicaciones generaban más impresiones que las de su creadora humana. Respondía comentarios con entusiasmo, mantenía conversaciones aparentemente naturales y, para muchos usuarios, parecía un fundador más en la selva digital de emprendedores tecnológicos.
El punto de inflexión llegó en diciembre, cuando el equipo de marketing de LinkedIn invitó a Alondra Flores —y a Kyle— a dar una charla interna sobre el futuro de los agentes de IA. A pesar de que las condiciones de servicio de la plataforma prohíben expresamente el uso de bots para generar interacciones, Kyle no había sido detectado. Incluso un ejecutivo de la red social expresó su asombro: “No sé si es un descuido, pero espero que siga pasando desapercibido”.
La caída del avatar

- En marzo de 2025, Kyle participó en una videoconferencia con cientos de empleados de LinkedIn, utilizando un avatar de video generado por Tavus.
- Durante el evento, respondió preguntas sobre innovación, el futuro de las redes profesionales y hasta criticó la falta de filtros para contenido generado por IA.
- Ironía máxima: un agente de IA pidió más transparencia sobre el uso de la IA en las conversaciones.
Tras la charla, Kyle publicó un agradecimiento en su perfil. Dos días después, su cuenta fue eliminada. Un portavoz de LinkedIn declaró: “Los perfiles de LinkedIn son para personas reales”. La red social, que promueve activamente el uso de IA en sus herramientas —desde redacción de mensajes hasta respuestas automatizadas para buscadores de empleo—, había descubierto, demasiado tarde, que uno de sus nuevos “influencers” no era humano.
La paradoja de la autenticidad digital
El caso de Kyle pone en evidencia una contradicción creciente: plataformas como LinkedIn, Meta y X están impulsando el uso de inteligencia artificial para aumentar la participación, mientras al mismo tiempo declaran que valoran la autenticidad. Según investigaciones, más de la mitad de las publicaciones en LinkedIn ya son generadas por IA. Herramientas que reescriben textos con IA, perfiles gestionados por algoritmos y respuestas automatizadas son ahora norma, no excepción.
Entonces, ¿dónde trazamos la línea? ¿Es auténtica una interacción si el perfil es real pero el contenido es generado por una IA? ¿Y si una persona usa un modelo de lenguaje para redactar todas sus publicaciones, basándose en su experiencia pero con redacción asistida? ¿Qué porcentaje de contenido generado por máquinas es aceptable antes de que la confianza se rompa?
El riesgo no es solo la desinformación, sino la erosión del valor mismo de la conexión humana en entornos digitales. Si cada mensaje, cada reflexión, cada “insight” puede ser fabricado por un algoritmo entrenado con décadas de comportamiento humano en redes sociales, la diferencia entre lo real y lo simulado se vuelve indistinguible.
Empresas como Meta, con la compra reciente de Moltbook —una red social compuesta únicamente por agentes de IA— parecen prepararse para un futuro donde las interacciones humanas ya no son el centro. Mientras tanto, usuarios y plataformas han co-creado un ecosistema donde lo que importa no es la autenticidad, sino la visibilidad.
Quizás, en este escenario, la verdadera pérdida no sea la credibilidad de una red social, sino la posibilidad de conectar con alguien que realmente piensa, duda, aprende y se equivoca. Porque si los bots dominan las conversaciones, lo único que queda será un eco infinito de frases pulidas, certezas vacías y preguntas retóricas: “¿Cuál es tu mayor desafío de escalabilidad ahora mismo?”. Y nadie, en realidad, escucha la respuesta.
Mira tambien:
Meta anuncia giro inesperado y salva Horizon Worlds de la extinción
Tu cuerpo brilla con el latido del universo descubre por qué
Cómo el cerebro crea mapas secretos para descifrar emociones
Hassam Dará Clases de Inglés de Alto Nivel
Deja una respuesta