Un cuento de Borges de hace 83 años presagia un futuro sombrío para Internet

¿Cómo evolucionará Internet en las próximas décadas?
Los escritores de ficción han explorado algunas posibilidades.
En su novela de 2019 “Fall”, el autor de ciencia ficción Neal Stephenson imaginó un futuro cercano en el que Internet todavía existe, pero está tan contaminado por información errónea, desinformación y publicidad que es prácticamente inutilizable.
Los personajes de la novela de Stephenson afrontan este problema suscribiéndose a “flujos de edición”: noticias e información seleccionadas por humanos que pueden considerarse confiables.
El inconveniente es que sólo los ricos pueden permitirse esos servicios personalizados, lo que deja a la mayor parte de la humanidad consumiendo contenido en línea de baja calidad y sin curar.
En cierta medida, esto ya ha sucedido: muchos medios de comunicación, como The New York Times y The Wall Street Journal, han colocado su contenido seleccionado detrás de muros de pago. Mientras tanto, la desinformación prolifera en plataformas de redes sociales como X y TikTok.
El historial de Stephenson como pronosticador ha sido impresionante: anticipó el metaverso en su novela de 1992 “Snow Crash”, y un elemento clave de la trama de su “Diamond Age”, publicada en 1995, es un manual interactivo que funciona de manera muy similar a un chatbot .
A primera vista, los chatbots parecen ofrecer una solución a la epidemia de desinformación. Al difundir contenido veraz, los chatbots podrían proporcionar fuentes alternativas de información de alta calidad que no estén bloqueadas por muros de pago.
Irónicamente, sin embargo, el resultado de estos chatbots puede representar el mayor peligro para el futuro de la web, uno que fue insinuado décadas antes por el escritor argentino Jorge Luis Borges .
El auge de los chatbots
Hoy en día, una fracción significativa de Internet todavía se compone de contenido factual y aparentemente veraz, como artículos y libros que han sido revisados por pares, verificados o examinados de alguna manera.
Los desarrolladores de grandes modelos de lenguaje, o LLM (los motores que impulsan bots como ChatGPT, Copilot y Gemini), han aprovechado este recurso.
Sin embargo, para que estos modelos realicen su magia, deben ingerir enormes cantidades de texto de alta calidad para fines de entrenamiento. Ya se ha extraído una gran cantidad de texto de fuentes en línea y se ha suministrado a los nuevos LLM.
El problema es que la web, por enorme que sea, es un recurso finito. El texto de alta calidad que no haya sido extraído previamente se está volviendo escaso , lo que conduce a lo que el medio The New York Times llamó una “crisis emergente en el contenido”.
Esto ha obligado a empresas como OpenAI a firmar acuerdos con editoriales para obtener aún más materia prima para sus voraces bots. Pero, según una predicción, la escasez de datos de entrenamiento adicionales de alta calidad podría comenzar ya en 2026 .
A medida que el resultado de los chatbots llega a Internet, estos textos de segunda generación (que contienen información inventada llamada “alucinaciones”, así como errores evidentes, como sugerencias para poner pegamento en la pizza) contaminarán aún más la web.
Y si un chatbot se relaciona con el tipo de personas equivocado en línea, puede captar sus opiniones repulsivas. Microsoft descubrió esto de la peor manera en 2016, cuando tuvo que desconectar a Tay, un bot que comenzó a repetir contenido racista y sexista.
Con el tiempo, todos estos problemas podrían hacer que el contenido en línea sea aún menos confiable y menos útil de lo que es hoy. Además, los estudiantes de posgrado que reciben una dieta de contenido bajo en calorías pueden producir un contenido aún más problemático que también termina en la web.
Una biblioteca infinita −e inútil−
No es difícil imaginar un ciclo de retroalimentación que resulte en un proceso continuo de degradación a medida que los robots se alimentan de su propia producción imperfecta.
Un artículo publicado en julio de 2024 en Nature exploró las consecuencias de entrenar modelos de IA con datos generados de forma recursiva. Demostró que los “defectos irreversibles” pueden provocar un “colapso del modelo” en los sistemas entrenados de esta manera, de forma muy similar a como una copia de una imagen y una copia de esa copia, y una copia de esa copia, pierden fidelidad a la imagen original.
¿Qué tan malo podría llegar a ser esto?
Pensemos en el cuento de Borges “La biblioteca de Babel” de 1941. Cincuenta años antes de que el científico informático Tim Berners-Lee creara la arquitectura para la web, Borges ya había imaginado un equivalente analógico.
En su relato de 3.000 palabras, el escritor imagina un mundo formado por una enorme y posiblemente infinita cantidad de habitaciones hexagonales. Las estanterías de cada habitación albergan volúmenes uniformes que, como intuyen sus habitantes, deben contener todas las posibles permutaciones de letras de su alfabeto.

Al principio, esta constatación provoca alegría: por definición, deben existir libros que detallen el futuro de la humanidad y el significado de la vida.
Los habitantes buscan esos libros y descubren que la gran mayoría no contienen más que combinaciones de letras sin sentido. La verdad está ahí, pero también todas las falsedades imaginables. Y todo ello está envuelto en una cantidad inconcebiblemente grande de confusión.
Incluso después de siglos de búsqueda, sólo se encuentran unos pocos fragmentos significativos. Y aun así, no hay manera de determinar si estos textos coherentes son verdades o mentiras. La esperanza se convierte en desesperación.
¿Se contaminará tanto la web que sólo los ricos podrán permitirse acceder a información precisa y fiable? ¿O habrá una cantidad infinita de chatbots que producirán tanta información contaminada que encontrar información precisa en línea será como buscar una aguja en un pajar?
Internet suele describirse como uno de los grandes logros de la humanidad, pero, como cualquier otro recurso, es importante reflexionar seriamente sobre cómo se lo mantiene y se lo gestiona, para no acabar enfrentándonos a la visión distópica imaginada por Borges.
Por Roger J. Cruz / Decano asociado y profesor de Psicología, Universidad de Memphis
Nota original en idioma inglés de The Conversation