Inteligencia artificial, juego e infancia:
Reflexiones ciberpsicológicas ante el anuncio de cooperación entre Mattel y OpenAI

Diciembre 2025

El juego nunca ha sido un simple pasatiempo. A través de él, niñas y niños exploran el mundo, aprenden, ensayan vínculos, regulan emociones y construyen identidad. Los juguetes, lejos de ser neutros, han acompañado históricamente estos procesos como mediadores del desarrollo humano. Buena parte de nuestras características como adultos podrían haber sido mediadas por nuestros patrones de juego infantil

Hoy, ese escenario comienza a transformarse de manera profunda. El anuncio de cooperación entre Mattel y OpenAI abre una nueva etapa: la posibilidad de integrar inteligencia artificial en juguetes y experiencias de juego.

No se trata solo de innovación tecnológica. Se trata de infancia, vínculo, privacidad y ética. Desde la ciberpsicología, esta noticia nos invita a detenernos antes de entusiasmarnos o rechazarlo automáticamente, para preguntarnos: ¿qué ocurre cuando un juguete no solo acompaña, sino que responde, conversa, recuerda y aprende?

¿Qué se anunció exactamente (y qué no)?

Los hechos: En junio de 2025, Mattel y OpenAI anunciaron una colaboración estratégica orientada a explorar el uso de inteligencia artificial en productos y experiencias futuras vinculadas al juego. Esto siguió con declaraciones multiples de directivos de ambas empresas y reacciones de importantes instituciones relacionadas al desarrollo y cuidado infantil. En concreto:

    • Se anunció una colaboración exploratoria para investigar posibles aplicaciones de IA en productos y experiencias vinculadas al juego.

    • Se enfatizó públicamente la importancia de la seguridad, la creatividad y la adecuación por edad.

    • No hay, hasta ahora, juguetes específicos anunciados, fechas de lanzamiento ni líneas comerciales concretas.

    • No se confirmó el desarrollo de muñecos o juguetes conversacionales con micrófonos activos.

    • No se detalló cómo se gestionarán los datos, voces o interacciones infantiles.

    • No existe aún un modelo de uso público.

Esta aclaración es fundamental. Como SOCHICIP queremos evitar el alarmismo, pero creemos que el debate ético debe ocurrir antes de que los productos lleguen a los hogares, no después.

Del objeto al vínculo: el juguete como un “otro” interactivo

Desde la ciberpsicología sabemos que los seres humanos —y especialmente los niños— tendemos a antropomorfizar aquello que responde de forma contingente. Cuando algo nos “contesta”, “recuerda cosas” o “parece entender”, deja de ser un objeto para nuestra mente.

            Un juguete con IA podría convertirse en compañero, confidente, referente emocional o fuente de regulación emocional. Sabemos desde la neurociencia que el cerebro responde a interacciones simbólicas de forma muy similar a las interacciones humanas, incluso cuando sabemos que el “otro” no es una persona real. En la infancia, donde la frontera entre lo simbólico y lo real aún está difusa, este efecto es especialmente relevante.

Riesgos y oportunidades potenciales

Cuando el vínculo con un agente artificial se vuelve constante, puede desplazar experiencias clave del desarrollo: El aburrimiento (que fomenta la creatividad), la frustración (que entrena la tolerancia), la espera (que regula la ansiedad) y la negociación con otros seres humanos (que modula los patrones relacionales).

Por otro lado, bien diseñada, la tecnología podría apoyar procesos de aprendizaje, inclusión o accesibilidad, especialmente en contextos donde el juego compartido es limitado. Así vemos que observar tanto riesgos como oportunidades nos obliga como sociedad a tener la reflexión crítica y oportuna al respecto

Diseño persuasivo y economía de la atención infantil

La inteligencia artificial no solo responde: está diseñada para mantener la interacción. Este principio es parte del ecosistema digital actual y sostiene la economía de la atención. En adultos, esto ya genera dificultades. En la infancia, el desafío es aún mayor. Un juguete que siempre está disponible, nunca se “cansa”, siempre reafirma mis ideas y nunca cuestiona, puede interferir en el desarrollo de habilidades fundamentales para el crecimiento.

Desde la ciberpsicología, advertimos que el riesgo no está en la tecnología en sí, sino en cómo se diseña, regula y pone en circulación, especialmente cuando no existen garantías claras de transparencia, límites y responsabilidad ética.

Privacidad y datos: lo que las familias necesitamos entender

Un juguete con IA podría implicar, en determinados casos: Captura de voz, procesamiento de lenguaje, almacenamiento de interacciones, generación de metadatos de uso, etc.  Ante este contexto la pregunta central no es solo si se recolectan datos, sino: ¿Cuáles?, ¿Para qué?, ¿Durante cuánto tiempo?, ¿Quién los controla?, ¿Cómo se eliminan?, entre otras.

En el caso de niñas y niños, el consentimiento no puede recaer únicamente en términos y condiciones extensos o poco comprensibles. La minimización en el uso de datos y la privacidad desde el diseño deben ser condiciones éticas básicas, no elementos opcionales.

La infancia no puede ser un campo de prueba

Si la inteligencia artificial ingresa al juego infantil, debe hacerlo con estándares más altos que se hayan diseñado hasta ahora. La responsabilidad no es solo de las familias, sino también de la industria y de los marcos regulatorios.

Esto implica necesariamente la inclusión de Guardrails y otras medidas que deberían priorizarse: Límites estrictos por edad, moderación de contenido sensible, alertas de seguridad, respuestas no clínicas ni terapéuticas, mecanismos de apagado y control parental, auditorías externas independientes, etc.

Una nueva ética: para una IA al servicio de la infancia      

Desde la Sociedad Chilena de Ciberpsicología proponemos abordar este escenario desde un marco de bienestar digital infantil. Para ello queremos ofrecer las siguientes recomendaciones:

Para familias y cuidadores

    • Usar juguetes con IA como complemento, no reemplazo del vínculo humano.

    • Conversar con niñas y niños sobre qué es y qué no es el juguete.

    • Establecer tiempos, espacios y propósitos claros de uso.

    • Priorizar el juego libre, creativo y compartido.

    • Revisar políticas de privacidad y control parental.

    • Observar señales de apego excesivo o dependencia.

Recomendaciones para la industria

    • Diseño diferenciado por etapas del desarrollo.

    • Ética corporativa para la transparencia total sobre funcionamiento y datos.

    • Privacidad y seguridad desde el diseño.

    • Vigilar, evaluar y evitar estrategias de diseño persuasivo orientadas a la manipulación emocional o a la maximización del tiempo de interacción infantil

Antes que el mercado, la conversación

La cooperación entre Mattel y OpenAI no es solo una noticia tecnológica. Es una señal relevante de algunas de las posibles direcciones hacia dónde evolucionará la experiencia infantil, en un mundo cada vez más mediado por sistemas inteligentes. Desde SOCHICIP creemos que el desafío no es rechazar la tecnología ni adoptarla sin reflexión, sino pensarla antes de que se naturalice.

El juego es un espacio sagrado del desarrollo humano. Si la inteligencia artificial entra en él, debe hacerlo con cuidado, límites y una ética clara. Porque un juguete puede hablar, Pero el vínculo, la contención y el desarrollo emocional siguen siendo profundamente humanos.

Referencias y lecturas recomendadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *