En los últimos meses empezó a aparecer un rótulo curioso, casi defensivo, en blogs, newsletters y redes:
“Este texto no fue hecho con IA.”
Una frase corta, pero cargada de ansiedad cultural.
No es un dato técnico. Es un gesto. Una advertencia. Una súplica.
Y, sobre todo, una reacción a la creciente sensación de que ya no sabemos quién —o qué— escribe lo que leemos.
Quien escribe “Este texto no fue hecho con IA” quiere que el lector piense:
“Esto lo pensé yo.”
“Mi tiempo y mi criterio valen.”
“No soy un generador automático más.”
La frase funciona como un pequeño escudo emocional en una época donde la escritura “humana” parece necesitar justificarse para no perder valor.
Pero también revela una incomodidad:
cuando la autenticidad debe anunciarse, es porque ya no es evidente.
Cuanto más se multiplica el “no fue hecho con IA”, más se diluye su sentido.
Porque, en un ecosistema de imitaciones perfectas, la declaración por sí sola no prueba nada.
Es un acto performativo:
no certifica humanismo, pero busca producirlo.
Un equivalente digital a los viejos “100% natural” o “artesanal”.
La autoría, que antes podía rastrearse en el estilo, la voz o el error humano, hoy se volvió una frontera movediza.
Los lectores sienten que todo tiene algún grado de automatización.
La sospecha es parte del paisaje.
Escritores, docentes, bibliotecarios, periodistas: muchos sienten la presión de demostrar que su trabajo sigue siendo “genuinamente humano”.
En un océano de textos generados, la autenticidad se convierte en marca.
“Lo escribí yo” pasa a ser una estrategia de diferenciación.
Así como la industria sumó “artesanal” a productos industrializados,
el mundo digital puede sumar “no hecho con IA” como una etiqueta vacía.
Una especie de branding de pureza humana, más estético que ético.
Y eso desvía la conversación importante:
no si usamos o no IA, sino cómo, para qué y con qué transparencia la incorporamos.
No necesitamos renegar de la IA ni jurar abstinencia digital.
Necesitamos algo más simple:
Transparencia + criterio + propósito.
Si un texto fue apoyado por IA, se dice.
Si no la usaste, no hace falta anunciarlo con un cartel luminoso.
Si la combinaste con tu trabajo, se explica igual que cuando citamos una fuente.
En el fondo, la confianza se construye con honestidad intelectual, no con advertencias defensivas.
Las bibliotecas viven este dilema de un modo particular.
Son, desde hace siglos, instituciones donde la autoría importa, donde se preserva quién dijo qué, cuándo, cómo y desde qué contexto.
Pero también son, hoy, espacios atravesados por sistemas de recomendación, resúmenes automáticos, registros asistidos por IA y filtros algorítmicos que median la lectura.
La frase “Este texto no fue hecho con IA” revela una tensión que las bibliotecas ya conocen:
¿Qué significa preservar conocimiento en un tiempo donde el origen se volvió difuso?
Las bibliotecas no pueden limitarse a guardar documentos:
tienen que contextualizar, explicar, anotar, hacer visible el camino de producción.
En otras palabras:
la biblioteca del futuro no será la que demuestre que un texto “no fue hecho con IA”,
sino la que enseñe a los lectores a interpretar qué significa que sí lo haya sido.
La función bibliotecaria se desplaza del control de origen al criterio para la lectura:
ayudar a navegar, comparar, situar, dudar con inteligencia y leer con conciencia.
La verdadera pregunta es:
¿Qué aporta este texto que solo puede aportar una persona?
Un recuerdo.
Una posición.
Una emoción.
Una mirada situada.
Un gesto político.
Un silencio que significa algo.
Un pedazo de vida.
La IA puede producir textos.
Pero todavía no sabe por qué importan.
Y ahí, en esa zona íntima, encarnada y situada —también una zona bibliotecaria— sigue habitando lo humano.