Desde sus inicios, la credibilidad del Internet siempre ha sido cuestionada debido a su naturaleza, en donde cualquier persona puede participar, crear, editar y cuestionar. Así como es posible encontrar fuentes valiosas respaldadas por instituciones de renombre, también lo es toparse con información falsa sin valor alguno. Y aunque desde años atrás nos enfrentamos a una sobresaturación de información, esta no se compara con la que nos enfrentamos actualmente, la cual proviene principalmente de contenido creado a través de la inteligencia artificial generativa (IA generativa).
A pesar de las aplicaciones positivas que puede tener la inteligencia artificial, ahora nos estamos enfrentando a través de redes sociales a oleadas tras oleadas de desinformación, videos bizarros y memes sin sentido. Desde imágenes surrealistas de Jesucristo fusionado con criaturas marinas hasta tiernos conejitos disfrutando de un trampolín, estas publicaciones llegan a ser virales porque aparentan ser reales o son extremadamente ridículas. A esta tendencia se le llama AI slop, que se podría traducir como “bazofia de IA” en español, es decir, contenido creado por herramientas de inteligencia artificial generativa, el cual tiene muy poca interferencia humana y, por ende, es de muy mala calidad y sin un aporte significativo.
Populares redes sociales como TikTok y YouTube actualmente están siendo inundadas por cantidades exorbitantes de videos hechos con IA generativa en su totalidad. Un creador de contenido afirma ganar aproximadamente 10.000 dólares por generar videos en los que sólo se da la tarea de escribir prompts en una aplicación de IA que puede llegar a generarle hasta 100 videos de TikTok por hora. Esto, sin tener que preocuparse por recolectar información verídica, grabarse a sí mismo o utilizar programas de edición.
Adicionalmente, cabe mencionar que los datos en los que se basa la IA para sacar tantos videos estarán siendo reciclados de foros como Reddit, tuits e incluso el trabajo de otros creadores de contenido que se esfuerzan por hacer sus propios videos, pódcast, arte, etc. Muchos de estos autores han sentido gran frustración e impotencia por estos videos, ya que competir con este tipo de productos audiovisuales producidos en masa es complicado cuando un video hecho por una persona puede llevar semanas e incluso meses; donde tristemente pueden perderse en esta marea de mediocridad y no ganar la atención que estos proyectos merecen.
Un reporte de Nato StratCom Center of Excellence del 2023 encontró que por tan solo 8 euros (9 dólares aproximadamente), es posible comprar miles de vistas falsas, likes e incluso comentarios generados con IA en la mayoría de las redes sociales más populares. Esto, combinado con el AI slop generado sin tacto humano, está creando un universo digital bastante bizarro en el que los mismos bots tienen una participación mayor que la de los propios humanos. Tristemente, los espacios que se crearon para que las personas pudieran interactuar y compartir sin importar su ubicación geográfica poco a poco están siendo desplazados por entes automatizados con la tarea de generar clics y vistas. No es sorpresa que la teoría viral del Internet muerto cada vez se haga más real debido a estas interacciones falsas generadas por la IA generativa.
Un claro ejemplo de lo anterior es Facebook, red social popular que, algunos años atrás, se caracterizaba por ser una plataforma en donde las personas compartíamos nuestros pensamientos, fotografías o se registraba la actividad del usuario a través de los distintos mini juegos que ofrecía. Ahora, esta red simula ser una especie de Frankenstein en donde encontramos imágenes de personas irreales en situaciones “vulnerables”, paisajes fuera de este mundo, arquitectura imposible, arte inexistente, así como noticias y videos absurdos que buscan evocar sorpresa, risa, ternura, indignación e incluso enojo.






Imágenes recolectadas por @FacebookAISlop, en X.
Desafortunadamente, debido a que mucho del contenido que se puede ver en Facebook, por ejemplo, tiene temáticas que evocan emociones fuertes como la ternura, la tristeza, la frustración y el enojo, muchas personas (y especialmente adultos mayores) se sienten conmovidas e interactúan con este material, cayendo en la trampa de estos “creadores de contenido” que mas que divulgar o ayudar, buscan su beneficio personal.
Un claro ejemplo de ello es lo siguiente: en la imagen izquierda puede observarse una publicación de lo que afirma ser un pavorreal bebé, e incluso la evocación al sentimiento de ternura se puede leer en la descripción (pavorreal bebé, tu momento “awww” del día). Sin embargo, esa imagen no pudiera estar más alejada de la realidad, debido a que la apariencia real de un polluelo de esta especie es la que se aprecia del lado derecho (cabe destacar que, mientras la existencia de pavorreales albinos es real, la imagen hecha con IA no ilustra su apariencia verdadera).


Fotografía derecha: Rob Croukamp, istock.com
Y aunque un pavorreal bebé puede ser bastante adorable, habrá personas que necesiten exagerar su apariencia en Internet para generar todavía más reacciones e interacciones, sin importar el costo a pagar: la desinformación.
Este tipo de fotos son tal solo la punta del iceberg del tumulto de desinformación no solo en redes sociales, pero en el Internet en general, a la que nos enfrentamos día a día, y no solamente en memes o videos graciosos. En este video una niña convive con un tigre, lo cual, en la vida real, sería sumamente irresponsable y peligroso dejar que esto pasara. Esto puede crear ideas erróneas sobre la convivencia con animales salvajes, lo cual puede poner en situación de alto riesgo a personas que crean en este tipo de videos.
Canales de YouTube que suben videos donde se narran sucesos históricos están siendo completamente generados por IA, y en los cuales no solamente las imágenes están hechas con estas herramientas, sino que son históricamente erróneas y las narraciones también suelen contar con hechos incorrectos e inventados. Además de dañar significativamente las reproducciones y popularidad de videos investigados, grabados y editados por personas reales, ya sea especialistas o aficionados, esto también está contribuyendo a la desinformación masiva de una materia que nos define como humanidad.
“[La bazofia de IA] Amenaza con literalmente, reescribir la historia – o el entendimiento de las personas con respecto a esta – con todos los sesgos incrustrados en la IA por el material con el que fue entrenado y cada vez mas, por la manipulación de los dueños de las compañías que hacen estas herramientas”. – Jason Koebler, 404 Media.
Otro ejemplo de cómo la bazofia de IA afecta a las personas es en la propagación de información falsa con respecto a eventos significativos como los de los desastres naturales. El año pasado, el sureste de Estados Unidos se enfrentaron a dos huracanes que dejaron a su paso varias zonas devastadas en distintas ciudades; por lo que las personas recurrieron a Internet para buscar más información o incluso buscar refugio. Lastimosamente, muchos artículos, imágenes y publicaciones alarmistas y falsas del evento hechas con IA eran los resultados principales que arrojaban los buscadores, haciendo que estas personas necesitadas cayeran en la desinformación y perdieran tiempo valioso.
Ahora bien, se habla el IA slop se manifiesta con más claridad en redes sociales, pero estas también se han permeado en otros medios. Ya hay libros que están siendo publicados en librerías digitales que están hechos por inteligencia artificial generativa en su totalidad, e incluso utilizando estas tecnologías para hacer versiones más cortas o sintetizadas de contenido ya existente. Igualmente, muchos de ellos son publicados con nombres muy parecidos a los autores reales, con el fin de engañar y vender más.
En el mundo de la música, algunos cantantes se están percatando de lanzamientos de discos que ellos nunca grabaron, con canciones que tienen su misma voz e incluso títulos y letras que son muy parecidos a sus estilos. Esto, sumado a miles de artistas, discos y canciones que no tienen intervención humana que son subidos a estas plataformas populares de streaming. Spotify incluso ha revelado que ha borrado 75 millones de temas de su aplicación, los cuales fueron eliminados en el proceso de aprobación e identificados como IA por los usuarios de este sistema.
No ayuda mucho que las grandes empresas también han promovido mucho el uso de IA en sus plataformas. Estudios conducidos por las universidades de Stanford y Georgetown el año pasado denotaron que los algoritmos de recomendaciones de Facebook están impulsando las publicaciones generadas por IA, haciendo que este contenido llegue a la mayor cantidad de personas.
“Para los gigantes de redes sociales, contenido es contenido; entre más barato sea y menos labor humana involucre, mejor. El resultado es un Internet de robots, buscando aquellos sentimientos y pasiones que mantengan a los usuarios humanos frente a sus pantallas”. – Nesrine Malik, The Guardian.
Asimismo, en la mayoría de los sitios y aplicaciones digitales podemos ver cada vez más elementos de IA. En Pinterest, por ejemplo, un sitio especializado en fotografías y videos para inspirar a sus usuarios, ahora integra muchas imágenes de IA. Tiendas virtuales también utilizan IA para promocionar productos que no son lo que parecen, como esta taza de cuarzo que se hizo viral y muchos internautas, al ordenarla, recibieron un producto de mala calidad y muy diferente a lo que se podía apreciar en las imágenes.
A su vez, aplicaciones con la sola intención de generar contenido han estado surgiendo, como Sora 2, creada por OpenAI, la cual es muy parecida a TikTok pero con la diferencia de que todos los videos que ahí se encuentran pueden son hechos por IA generativa, en donde cualquier persona a través de un prompt puede crear lo que le plazca. Y además del alto costo ambiental que generan estas aplicaciones, esto tan solo añade un ladrillo más al mural surrealista que cada vez se hace más alto y que cubre más nuestra realidad.
Si la desinformación fue antes un problema, la IA los está agudizando. Ahora, ver un video va de la mano con el cuestionamiento de su origen, y donde cada vez es más difícil distinguir entre la realidad y la ficción, para todas las generaciones, pero especialmente en adultos mayores (donde muchos confían en lo que ven en redes) y en los más pequeños, que todavía no tienen el conocimiento ni pensamiento crítico para evaluar lo que ven; además de que puede ser especialmente peligroso en niños y niñas, debido a que el contenido vacío y sin sentido que genera la IA sin supervisión (tanto del creador como las plataformas a las que se publican) además de no aportarles valor, puede incluir contenido inapropiado, violento o sexual.
En la era de la desinformación, ahora más que nunca será primordial que las instituciones educativas prioricen el pensamiento crítico y la alfabetización mediática, con el objetivo de que las nuevas generaciones puedan navegar en un muy bizarro universo, donde la realidad y la ficción se fusionan cada vez más.
¿Te gustó esta publicación? ¿Te gustaría publicarla en un sitio web, revista, blog o repositorio? Todos nuestros contenidos son de acceso abierto. Para dudas sobre cómo reutilizar éste y otros contenidos del Observatorio, contacta a nuestra editora en jefe: karinafuerte@tec.mx
The post ¿Harto de la bazofia de IA en redes? Yo también appeared first on Observatorio / Instituto para el Futuro de la Educación.