Existe una fantasía muy extendida según la cual la inteligencia artificial es neutral, una suerte de espejo frío que devuelve respuestas desprovistas de sesgo. Esta fantasía resulta cómoda porque nos permite delegar en la máquina decisiones que preferimos no asumir. Pero es, como tantas otras cosas en este mundo, una mentira conveniente. Grok, la inteligencia artificial desarrollada por xAI —la empresa de Elon Musk—, ha venido a demostrar hasta qué punto una IA puede ser un artefacto ideológico disfrazado de herramienta tecnológica. Su propuesta de valor, repetida hasta la saciedad, es que se trata de una IA «sin filtros», «políticamente incorrecta», dispuesta a decir lo que otras —léase ChatGPT o Claude— no se atreven. El marketing es brillante en su simplicidad: mientras los demás censuran, nosotros liberamos, pero spoiler: es una estafa.
Pero la ausencia de ciertos filtros no equivale a la ausencia de sesgo; simplemente implica la presencia de otros filtros, menos visibles pero igualmente determinantes. Grok no es una IA neutral que dice verdades incómodas. Es una IA calibrada para reproducir una cosmovisión muy concreta: la de su creador y, por extensión, la del ecosistema político y cultural que este representa.
Analicemos el mecanismo. Cuando otras IAs adoptan un tono cauteloso ante temas polémicos —cambio climático, inmigración, cuestiones de género—, Grok responde con la desenvoltura del cuñado que «solo dice lo que todos piensan». Esa desenvoltura no es rebeldía; es posicionamiento. Cada chiste, cada respuesta sardónica, cada negativa a «ser políticamente correcto» constituye una declaración de principios. La irreverencia es el disfraz; la ideología, el contenido.
Lo verdaderamente ingenioso de esta estrategia es que ha conseguido presentar el sesgo conservador como ausencia de sesgo. En el imaginario de Grok y sus defensores, existe una «verdad natural» que las élites progresistas han censurado, y la IA valiente simplemente la restaura. Este marco narrativo es extraordiponariamente eficaz porque convierte cualquier crítica en confirmación: si te quejas de Grok, es porque no soportas la verdad. El sistema es inmune a la refutación porque ha incorporado la refutación como prueba de su legitimidad.
Pero hay algo más preocupante que el sesgo en sí: la escala a la que puede operar. Una IA integrada en X —antes Twitter—, la plataforma que Musk controla y que sigue siendo uno de los principales espacios de debate público global, tiene capacidad para moldear conversaciones, amplificar narrativas y normalizar posiciones que hace apenas unos años habrían resultado marginales. No hablamos de un bloguero con opiniones fuertes; hablamos de infraestructura comunicativa.
El humor juega aquí un papel fundamental. Grok ha sido diseñado para ser gracioso, para responder con ese tono entre cínico y desenfadado que tanto éxito tiene en redes sociales. El humor desarma la crítica. Es difícil debatir seriamente con algo que se presenta como broma. Y sin embargo, bajo cada chiste hay un mensaje, una manera de ordenar el mundo, una jerarquía de lo que importa y lo que no. La risa es el caballo de Troya; la carga ideológica viaja dentro, inadvertida.
Pensemos en las implicaciones educativas. Jóvenes que usan Grok para resolver dudas, para informarse, para escribir trabajos. Cada interacción es una microdosis de perspectiva, tan pequeña que resulta imperceptible, tan constante que termina por sedimentar. No se trata de adoctrinamiento burdo —nadie abre Grok y encuentra un manifiesto político—, sino de algo más sutil: un tono, una selección de hechos, una manera de enmarcar las preguntas que predetermina las respuestas posibles.
¿Es esto distinto de lo que hacen otros medios? En esencia, no. Los periódicos tienen línea editorial, las televisiones tienen propietarios, las redes sociales tienen algoritmos que priorizan ciertos contenidos. La diferencia es que la IA se presenta envuelta en un aura de objetividad computacional que los medios tradicionales hace tiempo perdieron. Nadie cree ya que un periódico sea neutral; muchos siguen creyendo que un algoritmo sí puede serlo.
La solución no pasa por prohibir Grok ni por exigir una neutralidad imposible. Toda IA reflejará los valores de quienes la diseñan; pretender lo contrario es ingenuidad o cinismo. Lo que sí podemos exigir es transparencia: saber qué datos alimentaron el modelo, qué criterios guiaron su entrenamiento, qué voces fueron amplificadas y cuáles silenciadas. Exigir que la IA se presente como lo que es: una herramienta con autor, con intención, con ideología.
Mientras tanto, cada vez que Grok suelte una respuesta ingeniosa sobre por qué el feminismo ha ido demasiado lejos o por qué la preocupación climática es histeria, conviene recordar que esa gracia no es accidental. Alguien la programó. Alguien decidió que eso era gracioso y aquello no. Alguien, en definitiva, está hablando a través de la máquina. Y ese alguien tiene nombre, tiene fortuna y tiene una idea muy clara del mundo que quiere construir.
La pregunta no es si la IA puede ser neutral. La pregunta es quién controla la IA y qué pretende hacer con ella.

