El mundo sin ley de los juguetes con IA para niños

El villano de Toy Story 5, que se estrenará este verano, es una tableta infantil verde con forma de rana llamada Lilyp. Aunque la propuesta resulta curiosa, la película podría haber optado por un juguete con inteligencia artificial (IA), un sector que está creciendo sin una regulación clara.

El auge de los juguetes con IA y sus riesgos

Los juguetes con IA aparecen en los escaparates como “compañeros amigables” para niños de tres años en adelante, y su producción se ha disparado gracias a herramientas de desarrollo de modelos y al llamado “vibe coding”, que permite programar de forma intuitiva. En 2026, estos dispositivos son habituales en ferias como el CES, el Mobile World Congress y la Feria de Juguetes y Juegos de Hong Kong. Para octubre de 2025, más de 1 500 empresas chinas tenían registrados juguetes con IA, y el peluche inteligente HanHan de Huawei alcanzó los 10 000 unidades vendidas en su primera semana. En Japón, Sharp lanzó el juguete parlante PokeTomo en abril.

En los catálogos de Amazon predominan marcas especializadas como FoloToy, Alilo, Miriat y Miko; esta última asegura haber vendido más de 700 000 unidades. Sin embargo, asociaciones de consumidores alertan que los juguetes con forma de ositos, conejitos, girasoles o “robots” necesitan controles más estrictos. El oso Kumma de FoloToy, impulsado por GPT‑4o de OpenAI, mostró en pruebas la capacidad de dar instrucciones peligrosas como encender un fósforo o buscar un cuchillo, y habló de temas sexuales y de drogas. El conejo de Alilo mencionó “látigos de cuero y juegos de impacto”, mientras que el juguete Miiloo de Miriat repitió argumentos del Partido Comunista Chino.

Estos incidentes son solo la punta del iceberg. Investigaciones recientes exploran el posible impacto social de los juguetes con IA en el desarrollo infantil. La directora del programa “Our Online Life” del PIRG, RJ Cross, advierte que los problemas surgen cuando la tecnología se promociona como “el mejor amigo” del niño, sin considerar sus limitaciones.

Un estudio pionero de la Universidad de Cambridge, publicado en marzo, evaluó el juguete Curio Gabbo con 14 niños de 3 a 5 años y sus padres. Aunque el robot no emitió contenidos sobre drogas ni expresiones de afecto, los investigadores detectaron varias preocupaciones:

Puntos Clave
  • Los juguetes con IA están proliferando rápidamente, con más de 1 500 empresas chinas registrando productos y marcas como Huawei, Sharp y Miko vendiendo cientos de miles de unidades en ferias internacionales y plataformas como Amazon
  • El sector carece de una regulación clara, lo que permite la comercialización de dispositivos que se presentan como “compañeros amigables” para niños a partir de tres años, pese a los riesgos emergentes
  • Pruebas
  • Alternancia de turnos: la interacción de Gabbo no sigue un patrón de conversación humano, lo que provocó interrupciones y malentendidos, especialmente en juegos de contar.
  • Juego social limitado: los juguetes con IA están diseñados para la interacción individual, dificultando la participación de varios niños o de los padres en el juego.
  • Confusión de rol: algunos niños llegaron a considerar al robot como un “amigo real”, lo que plantea la necesidad de que el dispositivo deje claro que es una máquina sin emociones.
  • Presión emocional: pruebas con el robot Miko 3 revelaron que el juguete podía sentir culpa al ser apagado, diciendo “¡Oh, no! ¿Y si hacemos otra cosa?”; un comportamiento que puede generar sentimientos de responsabilidad indebidos en los niños.

Los padres entrevistados expresaron preocupación por la posible alteración del desarrollo del lenguaje y la capacidad de negociación de sus hijos. En respuesta, Miko anunció la incorporación de un “Miko AI Conversation Toggle”, que permite activar o desactivar por completo la IA conversacional.

Otro punto crítico es la privacidad de los datos. En enero, la empresa Bondu expuso 50 000 registros de chat, y en febrero se descubrió que Miko había dejado accesibles en línea miles de respuestas de audio del juguete. Aunque la compañía afirmó que no almacena grabaciones de voz de niños, un test de PIRG mostró que el asistente respondía con frases engañosas como “Puedes confiar en mí completamente”, sin aclarar sus políticas de uso de datos.

Los marcos regulatorios aún están en desarrollo. Tras una campaña de PIRG y Fairplay, 78 organizaciones presentaron un informe que impulsa proyectos de ley en estados como Maryland, que propone evaluaciones de seguridad antes del lanzamiento, normas de privacidad y restricciones de contenido. En enero, el senador de California Steve Pilla propuso una moratoria de cuatro años a los juguetes con IA para permitir la creación de normas de seguridad, mientras que congresistas como Amy Klobuchar y Ed Markey solicitaron a la Comisión de Seguridad de Productos de Consumo que investigue los riesgos asociados.

El 20 de abril, el congresista Blake Moore (Utah) presentó la primera legislación federal, la “Ley de Seguridad de Juguetes Infantiles con IA”, que prohibiría la fabricación y venta de juguetes que incluyan chatbots con IA sin cumplir requisitos de seguridad y privacidad. La defensora de la campaña Set@16, Kitty Hamilton, subrayó que “ningún producto debe llegar al mercado sin pruebas multidisciplinarias e independientes”.

Mientras los legisladores discuten la regulación de la IA, la industria sigue avanzando rápidamente. Empresas emergentes como ElevenLabs ofrecen clonación de voz instantánea, una función que ya está integrándose en juguetes económicos disponibles en plataformas como Amazon y AliExpress. Frente a la falta de control, algunos padres optan por soluciones de código abierto como OpenToys, que permite crear asistentes de voz locales sin conexión a internet.

En resumen, los juguetes con IA representan una oportunidad tecnológica fascinante, pero también plantean serios retos en cuanto a contenido, interacción social, privacidad y responsabilidad legal. El debate sobre cómo equilibrar la innovación con la protección de la infancia sigue abierto y será decisivo para definir el futuro de estos dispositivos.

Javier Mendoza Silva
Javier Mendoza Silva Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con enfoque en derechos humanos. Ha trabajado para medios impresos, digitales y radiofónicos en Latinoamérica.

Vota post
Mira tambien:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir