Hay un término anglosajón que ha empezado a circular en los rincones más lúcidos de internet y que merece nuestra atención: SLOP. La palabra, que en inglés designa esa bazofia aguada que se arroja a los cerdos, ha sido recuperada para nombrar algo que todos hemos visto pero que pocos sabían cómo llamar: contenido generado por IA que se hace pasar por conocimiento humano legítimo.
No hablamos aquí de arte, ni de experimentos creativos, ni de herramientas que aumentan nuestras capacidades. Hablamos de algo mucho más insidioso: artículos médicos escritos por algoritmos que nadie ha verificado, listas de «los diez mejores restaurantes de Sevilla» elaboradas por una máquina que jamás ha pisado España, biografías de personajes históricos plagadas de invenciones que suenan plausibles, recetas imposibles, consejos financieros delirantes, información científica que mezcla datos reales con alucinaciones estadísticas. El SLOP no busca crear; busca ocupar espacio. Llenar el vacío de atención con algo que parezca contenido.
Y aquí reside el verdadero escándalo: millones de personas consumen SLOP cada día creyendo que están informándose. La abuela que busca síntomas en Google y encuentra un artículo generado automáticamente. El estudiante que copia datos de una web que parece seria pero que no existe más que como granja de clics. El lector que comparte en WhatsApp una noticia que ningún periodista escribió jamás. El SLOP ha envenenado el ecosistema informativo de una manera que apenas empezamos a comprender.
Lo que diferencia al SLOP del arte generado por IA es precisamente la intención. Cuando alguien crea una imagen con Midjourney y la presenta como tal, hay honestidad en el gesto. Podremos debatir sobre su valor estético o sobre las deudas con los artistas originales, pero no hay engaño sobre la naturaleza de lo que estamos viendo. El SLOP, en cambio, se disfraza sistemáticamente de aquello que no es: periodismo, expertise, conocimiento verificado, opinión autorizada.
Y lo hace porque resulta extraordinariamente rentable. Crear SLOP cuesta prácticamente nada. Un solo operador con acceso a modelos de lenguaje puede generar miles de artículos diarios, posicionarlos en buscadores mediante técnicas de SEO, monetizarlos con publicidad programática y desaparecer antes de que nadie pueda pedirle responsabilidades. Es la industrialización definitiva de la mentira.
Las consecuencias van mucho más allá de la molestia de encontrar información falsa. El SLOP erosiona la confianza en todo lo escrito. Cuando cualquier texto puede haber sido generado por una máquina sin supervisión humana, el lector razonable empieza a dudar de todo. Y esa duda generalizada no conduce a un escepticismo sano, sino a una parálisis epistémica donde nada parece fiable y, por tanto, cualquier cosa da igual. Es el caldo de cultivo perfecto para la posverdad.
¿Qué hacer ante esto? Las plataformas que alojan y monetizan SLOP deberían asumir responsabilidades, pero sabemos que no lo harán voluntariamente. Los buscadores que lo posicionan deberían penalizarlo, pero sus algoritmos todavía premian la cantidad sobre la calidad. La única defensa real, por ahora, es educativa: enseñar a leer con desconfianza productiva, verificar fuentes, sospechar de aquello que suena demasiado perfecto o demasiado genérico.
El SLOP no es una forma de arte ni un experimento tecnológico. Es una estafa a escala industrial, perpetrada contra lectores que merecen información veraz y ejecutada por quienes han descubierto que la mentira automatizada es el negocio más lucrativo de nuestra era. Llamarlo por su nombre —bazofia, basura, engaño— es el primer paso para combatirlo.
Porque hay una diferencia fundamental entre usar la tecnología para ampliar lo que podemos crear y usarla para simular lo que no sabemos. Lo primero es innovación; lo segundo, fraude.

