Al cumplirse un nuevo aniversario de la creación de la web, la teoría del "Internet muerto" parece haber pasado de ser un meme conspirativo a convertirse en una realidad que preocupa a todas las esferas tecnológicas. Durante el 2024, el 51% del tráfico global fue generado por bots automatizados, mientras que la producción de contenido por actividad humana se redujo al 49%, según el 2025 Bad Bot Report. La pregunta clave ya no es qué buscamos, sino quién responde: ¿somos todavía los humanos los que hablamos, o es solo el eco de una inteligencia artificial autogenerada?
¿Quién “habla” realmente en Internet? La preocupación sobre la materialización de la teoría del “Internet muerto”, a 56 años del aniversario de su creación, pone esta pregunta sobre el futuro del Internet en el centro de la celebración. Inicialmente, esta era considerada una teoría conspirativa que afirmaba que, intencionalmente, la actividad en Internet estaría constituida principalmente por contenido generado automáticamente por robots (bots) y manipulado de manera intencional a través de una supervisión y selección de algoritmos para desinformar, controlar a la población y minimizar la actividad humana orgánica o directa.
"Lo que se dice sobre la teoría del Internet muerto es que habrá un momento en el que los chatbots generen tanto contenido y otros chatbots clasifiquen y den respuesta a ese contenido, razón por la que la interacción humana sería nula, a eso se le ha denominado el internet muerto”, explica Gustavo Pérez Zapata, profesor especial del Departamento de Ciencias de la Computación de la Facultad de Minas de la Universidad Nacional de Colombia (UNAL) Sede Medellín.
El fenómeno se evidencia, principalmente, en plataformas sociales como X (anteriormente Twitter) y Facebook, donde la IA de generación de imágenes y la automatización del spam (correo o información basura) están logrando una escala viral sin precedentes. La causa subyacente sería la arquitectura algorítmica de las plataformas, que prioriza el engagement (conexión de los usuarios) y el lucro, sobre la procedencia y la verdad, creando un circuito cerrado donde la IA se retroalimenta y auto-educa.
El profesor Gustavo Pérez señala que este concepto del “Internet muerto” surgió al momento de su creación, en los años 2000, con la gran incógnita sobre quién iba a generar el suficiente contenido para que las personas pudieran consumirlo, “era nuestro gran reto”.
“Luego, con las redes sociales, eso se incrementó bastante llegando al punto de uno tener que seleccionar lo bueno y lo malo de una forma manual. Pero, a partir del 2016, empezaron a surgir nuevas herramientas como la inteligencia artificial y encontramos que ya se podían construir chatbots que generaban información y contenido automático y que interactuara con las diferentes comunidades digitales. Por ejemplo, las estadísticas que tenemos a nivel mundial del correo electrónico, el 52% son lo que llamamos spam, generados en su mayoría por elementos totalmente automatizados”, expone Pérez, director Técnico del Centro de Excelencia de Computación Científica de la UNAL Bogotá.
Aunque esta teoría ha estado enmarcada en contextos como la campaña presidencial de Estado Unidos en el 2016, recientemente (septiembre de 2025), el CEO de OpenAI, Sam Altman, advirtió sobre las cuentas administradas por modelos de lenguaje de gran tamaño (LLM) en la red social X.
“Nunca tomé en serio la teoría de la Internet muerta, pero parece que ahora hay muchas cuentas de Twitter administradas por LLMS”. Si bien estas afirmaciones también podrían atribuirse a las diferencias entre el CEO de OpenIA (empresa creadora de ChatGPT) y Elon Musk (actual dueño de X), la afirmación de Altman revivió el debate sobre quiénes son los principales autores y lectores del contenido que circula en Internet.
Tráfico en Internet: los bots superan a los humanos por primera vez
El equilibrio de información en la red ha cambiado, por primera vez en la historia de los registros, la mayoría del tráfico en Internet ya no es generado por personas sino por bots. Este cambio ha sido documentado por el 2025 Bad Bot Report de la empresa de ciberseguridad Imperva.
Según el análisis, durante el año 2024, la actividad de los bots automatizados alcanzó un hito, constituyendo el 51% del tráfico global, mientras que la actividad de los usuarios humanos se vio relegada en el 49%.
“El Internet muerto lo estamos viviendo y lo vamos a seguir viviendo en el día a día de lo que hacemos, son las inteligencias artificiales las que están realmente canalizando el contenido de lo que estamos viendo en Internet. El dilema, por tanto, no es la cantidad de datos, sino la calidad y el origen de la voz que consume el usuario”, agrega Gustavo Pérez, magíster en Ingeniería e Ingeniero de Sistemas.
Ante esta situación, más que hablar de un Internet muerto, se puede hacer referencia a un ecosistema informacional híbrido, según la profesora Liz Karen Herrera Quintero, del Departamento de Ingeniería Mecánica y Mecatrónica de la Facultad de Ingeniería de la UNAL Sede Bogotá.
“Creo que no significa que el Internet esté muerto, sino que podemos referirnos a una conversación digital híbrida, donde antes solamente participaban humanos y ahora tenemos también la participación de agentes automatizados. La reflexión es cómo podemos verificar e interpretar lo que vemos en Internet. Como universidad y centro de pensamiento del país tenemos un papel muy importante para aprender a analizar los datos, interpretarlos, contestarlos, deliberarlos. Con todo esto que se está presentando, el reto es formar a la ciudadanía sobre esta automatización y esta clase de contenido”, expone la doctora en Ciencia de los Materiales y en Tecnologías de Fabricación Avanzada.
El motor algorítmico: lucro sobre autenticidad
El motor que impulsa esta inundación de inautenticidad no es principalmente ideológico, sino económico. El estudio de la Universidad de Cambridge (2024) How Spammers and Scammers Leverage Al-Generated Images on Facebook for Audience Growth, de los profesores Renee DiResta y Josh A. Goldstein, proporciona la prueba empírica de cómo la IA está siendo “armada” con fines de lucro.
El estudio rastreó 120 páginas que publicaron contenido sintético o hecho por bots, el cual colectivamente recibió cientos de millones de interacciones en Facebook, demostrando que la pérdida de confianza está siendo impulsada por un engaño masivo y rentable. Se encontró, por ejemplo, a usuarios felicitando y comentando una publicación de “una pintura de una niña generada por IA".
La investigación de Cambridge concluyó que los spammers y estafadores son "adoptadores tempranos de nuevas tecnologías" y están utilizando masivamente imágenes generadas por IA, sin embargo, la escalabilidad es su mayor arma.
“El problema actual no es ideológico, sino financiero... El algoritmo de "feed" de las plataformas es el motor que distribuye la desinformación: a menudo recomienda 'imágenes generadas por IA sin etiquetar' a usuarios que no siguen esas páginas, promoviendo el contenido que 'probablemente genere engagement' o sea 'visualmente sensacional'”, señala el estudio. El resultado es un ciclo en el que el algoritmo favorece lo generado artificialmente (si genera clics), y los bots generan más de lo que el algoritmo favorece.
La complejidad creciente para distinguir entre contenido real y sintético en línea "probablemente exacerbará aún más los problemas de confianza en los medios y la información", concluye el análisis académico, haciendo de la búsqueda de la autenticidad el desafío público más urgente en la actual era digital.
La paradoja de la conversación IA-IA
La preocupación del CEO de OpenAI sobre los LLM administrando cuentas de redes sociales resalta una paradoja de la IA: el código que se supone debe servir a la humanidad está aprendiendo, en parte, del eco de sus propios productos.
El profesor Gustavo Pérez subraya que la saturación se agrava cuando las IA no solo generan contenido, sino que también aprenden a partir de las respuestas de otras IA, creando un circuito cerrado donde los chatbots se contestan y se auto-educan, produciendo contenido para otros bots, no necesariamente apto o útil para el consumo o la investigación humana.
La respuesta humana: criterio y regulación
Frente a este "ecosistema informacional híbrido", la solución no es solo tecnológica, sino profundamente humana y regulatoria, como expone la profesora y magíster en Sistemas Liz Karen Herrera, quien advierte sobre el costo social de este contenido auto-generado.
"Esto se contrarresta cultivando una democracia que se sostenga no solo en derechos, sino en el criterio y la conciencia de los usuarios, ya que solo las personas pueden darle sentido a los datos que la tecnología produce. Algo que me parece complejo con todo este proceso es que, aunque ya estamos polarizados, esto ayuda a una polarización mucho más grande en la sociedad y a que las fake news (noticias falsas) empiecen a convertirse en una mentira repetida muchas veces", comenta Herrera.
“Desde que haya una visión crítica sobre lo que se está leyendo, habrá un grado de libertad, esa que tenemos los humanos para decidir que eso es viable o no es viable, que es muy diferente y que no parece cierto. Estamos a puertas de exigir a los gobiernos unas leyes que controlen éticamente los contenidos que se están generando en el país o la región, para que las grandes compañías también puedan regular este tema y el contenido generado entre chatbots y para chatbots”, agrega el docente Pérez.
Según los académicos, para contrarrestar esta inundación de contenido automatizado, la tarea esencial de la educación es "recuperar la conversación pública sin polarizar", cultivando una democracia que se sostenga no solo en derechos, sino en el criterio y la conciencia de los usuarios, ya que solo las personas pueden darle sentido a los datos que la tecnología produce.
(FIN/JRDP)
4 de noviembre de 2025