Imagina que hoy ocurre un hecho concreto, uno cualquiera, de esos que ves en las noticias, en redes o comentas en la mesa. El hecho no cambia, pero sí cambian las palabras que lo envuelven. A unos se les llama “líderes influyentes” y a otros “grupos radicalizados”. Unos “gestionan intereses complejos”, otros “ponen en riesgo el orden social”. Unos “cometen errores”, otros “amenazan la democracia”. Esa diferencia no es estética ni retórica: define cómo se percibe la realidad y a quién se considera legítimo o peligroso.

Esto siempre ha ocurrido. La novedad es que hoy ese trabajo ya no depende solo de personas. Hoy lo realizan sistemas de inteligencia artificial que producen lenguaje de manera continua, automática y global. Las IA no opinan ni deliberan, pero sí cumplen una función decisiva: seleccionan palabras, ordenan conceptos y fijan marcos interpretativos que millones de personas consumen a diario sin advertirlo.
La inteligencia artificial no crea ideología por sí sola, pero puede amplificarla con una eficacia inédita. Al entrenarse con grandes volúmenes de datos dominantes, tiende a reproducir los enfoques de quienes ya tienen poder simbólico. Cuando se la utiliza para resumir, explicar o contextualizar la realidad, puede suavizar sistemáticamente las acciones de las élites mediante eufemismos y, al mismo tiempo, endurecer el lenguaje hacia quienes las cuestionan. No necesita mentir: basta con inclinar el sentido.
Este poder ya está siendo usado. Lo ejercen grandes plataformas tecnológicas que controlan buscadores, redes sociales y sistemas de recomendación, capaces de decidir qué lenguaje circula y cuál se vuelve invisible. Lo ejercen gobiernos que buscan estabilidad narrativa, presentando el conflicto social como problema de orden o desinformación. Lo ejercen corporaciones globales que reformulan prácticas abusivas como “ajustes”, “externalidades” o “decisiones técnicas”. Lo ejercen actores financieros que requieren relatos tranquilizadores para sostener mercados. Y lo ejercen industrias completas de comunicación política y comercial que hoy operan con lenguaje automatizado a gran escala.

La inteligencia artificial vuelve este proceso silencioso y constante. Puede repetir el mismo encuadre millones de veces, adaptarlo a cada cultura y a cada audiencia, y hacerlo con un tono aparentemente neutral y razonable. Así, palabra a palabra, titular a titular, se va perforando la percepción colectiva. Como el agua que cae gota a gota sobre la piedra, el lenguaje repetido moldea la mente. Lo injusto comienza a parecer complejo. El abuso, discutible. La crítica, exagerada. La desigualdad, inevitable.
De este modo se construyen realidades sintéticas: no mundos ficticios evidentes, sino realidades diseñadas lingüísticamente, donde las personas creen pensar libremente mientras habitan marcos que no eligieron. El control ya no opera sobre lo que se prohíbe decir, sino sobre lo que deja de ser pensable nombrar de otra manera.
Esto no es un escenario futuro. Está ocurriendo ahora, en los resúmenes automáticos que leemos, en las explicaciones “equilibradas” que siempre protegen a los mismos actores, en los conceptos que se repiten hasta volverse naturales. Nos rodea, nos educa y nos orienta sin pedir consentimiento.
Desde la Sociedad Chilena de Ciberpsicología advertimos que este fenómeno no es solo tecnológico, sino profundamente humano, psicológico y político. Defender la salud mental y la democracia en la era digital implica recuperar conciencia sobre el lenguaje que consumimos y reproducimos. Implica aprender a detectar eufemismos, sesgos y marcos impuestos. Implica no delegar en sistemas automatizados la tarea de decidir qué es justo, qué es razonable y qué merece ser cuestionado.
Cuidar el lenguaje es cuidar la realidad que compartimos. Y en un mundo mediado por inteligencia artificial, esa tarea ya no es opcional: es una responsabilidad colectiva.


