Del Papel al Algoritmo
·
Nov 26, 2025

📚 El brainrot de la IA y la lección silenciosa de las bibliotecas

Cuando la inteligencia artificial se alimenta de basura informativa


Hace un tiempo pensábamos que el peligro de la inteligencia artificial era que aprendiera demasiado. Hoy sabemos que el riesgo puede ser el contrario: que aprenda mal.

Un estudio reciente de las universidades de Texas A&M, Purdue y Austin reveló algo inquietante: los modelos de lenguaje —como ChatGPT o Gemini— pueden sufrir una forma de degradación cognitiva si se entrenan con grandes volúmenes de contenido de baja calidad. A ese fenómeno lo llaman brain-rot, literalmente: pudrición cerebral.


El cerebro digital también se contamina

Los investigadores probaron dos modelos: uno alimentado con textos diversos y bien escritos; otro, con publicaciones virales y superficiales de redes sociales.

¿El resultado?
El segundo modelo se volvió más torpe, menos lógico y hasta más “psicopático” según ciertas métricas.
Perdió coherencia, empatía y comprensión.
Exactamente lo que también nos pasa a los humanos cuando pasamos demasiado tiempo scrolleando.


Un espejo incómodo

El brain-rot no es solo un problema técnico: es una metáfora cultural.
La IA se entrena con lo que producimos, y lo que producimos cada vez se parece más a un zumbido: ruido, opiniones, fragmentos sin contexto.
Si el mundo se alimenta de basura informativa, las máquinas también lo harán.

Y lo peor: luego esa basura volverá a circular, amplificada y maquillada de “inteligencia”.


Bibliotecas y curadores en tiempos del algoritmo

En las bibliotecas sabemos que la calidad de una colección depende de su selección.
No se trata de acumular libros, sino de elegir bien.
De discernir entre lo que informa y lo que deforma.

Esa misma ética debería guiar la construcción de los sistemas de inteligencia artificial.
Porque si las máquinas aprenden de nosotros, también heredan nuestros descuidos.

Los bibliotecarios, docentes y gestores de información tenemos algo que aportar aquí:
no datos, sino criterio.
Podemos enseñar a la IA a alimentarse mejor, a distinguir fuentes, a cuidar la integridad del conocimiento que la sostiene.


Una pregunta para cerrar

Si las inteligencias artificiales pueden degradarse por exceso de contenido basura,
¿qué responsabilidad tenemos nosotros, los humanos, en la dieta cognitiva que les damos?

Quizás la respuesta esté en volver a lo esencial:
no producir más datos, sino mejores.
No buscar que la máquina piense más rápido, sino que nosotros pensemos con más cuidado.


📎 Fuente: WIRED España – “Las IA también pueden sufrir de brain-rot

Apoyá este proyecto en Cafecito
💳 Membresía Fundadora en Mercado Pago