A menudo nos desinhibimos frente a las pantallas. Sentimos que el feed es algo íntimo y que, mientras escroleamos, estamos menos expuestos que cuando vamos por la calle. Estar en nuestra plataforma preferida se siente como un viaje al interior, una conversación genuinamente propia en la que aparecen los temas de nuestro interés sin importar lo incoherentes que pueden llegar a ser entre ellos.
Nuestro feed se siente auténtico, libre de presiones, en él es fácil reaccionar y nos lleva a donde queremos ir antes de que nosotros mismos lo sepamos. Formamos con nuestros algoritmos de recomendación un vínculo emocional y les enseñamos lo que necesitan para devolvernos una gratificación rápida. Casi olvidamos que el rastro que vamos dejando es almacenado y procesado según los intereses de corporaciones trasnacionales.
Tanta comodidad y fluidez casi enmascaran la invasión a la privacidad, el aislamiento social y la explotación de vulnerabilidades que sostienen los negocios digitales. «Ahora los procesos automatizados llevados a cabo por máquinas no solo conocen nuestra conducta, sino que también moldean nuestros comportamientos en igual medida», sentenció Shoshana Zuboff en su libro La era del capitalismo de vigilancia.
El término burbuja ha crecido en popularidad en los últimos años. En las conversaciones más cotidianas solemos usarlo para señalar el peligro de manipulación que alguien corre en internet. Por ejemplo, la serie británica Adolescencia que se lanzó en Netflix en marzo pasado nos puso a hablar sobre la «manosfera»: una burbuja de contenido en línea en la que hombres heterosexuales promueven un tipo de masculinidad hostil hacia las mujeres, supuestamente como respuesta al feminismo. La serie representó cómo la exposición sostenida a este tipo de contenido puede radicalizar a los usuarios, especialmente jóvenes, al punto de identificarse como íncels (involuntary celibates o célibes involuntarios), desarrollar misoginia e, incluso, cometer feminicidio.
A pesar de que Adolescencia es una serie de ficción, la manosfera sí existe y su impacto resonó en la cabeza de los cuidadores de menores de edad en buena parte del mundo, quienes empezaron a averiguar más sobre las burbujas de filtro en prensa y redes sociales. Sin embargo, las burbujas no solo están presentes en contextos sórdidos como este, de hecho, desde 2009 son inherentes a nuestras búsquedas en internet.
Personalizar el conocimiento universal
Ed Finn, en La búsqueda del algoritmo, detalla cómo Google, en su aspiración por organizar todo el conocimiento universal, desarrolló PageRank, un algoritmo que podía localizar toda la información en línea y jerarquizarla en sus resultados atendiendo a criterios propios de la compañía. Entre las variables para que una publicación apareciera más arriba o más abajo del índice de Google se incluyó, desde muy temprano, la popularidad del contenido.
El buscador era la enciclopedia definitiva, ahora con fuentes de distintos países e idiomas, información de la prensa y contenidos que los mismos usuarios empezaron a publicar a través de blogs, Wikipedia o las primeras redes sociales. Pero la empresa de Silicon Valley hizo un cambio drástico en 2009: los resultados de las búsquedas ya no se listarían en el mismo orden según el tema, sino que se generarían de manera personalizada para cada usuario.
Esto fue posible gracias a los avances del machine learning (aprendizaje automático): algoritmos capaces de analizar en segundos nuestra vida digital, hallar patrones y predecir lo que queremos encontrar con los términos de búsqueda que les entregamos. Así, deciden probabilísticamente el orden de los resultados de cualquier consulta según nuestros datos históricos y perfil, haciendo que cuando dos personas buscamos las mismas palabras obtengamos respuestas diferentes.
Fue ahí cuando Eli Pariser acuñó el concepto «burbujas de filtro», que aún causa controversia entre los estudiosos de la comunicación. Sobre ellas escribió: «Las máquinas pronosticadoras crean y refinan continuamente una teoría sobre su personalidad y predicen lo siguiente que usted querrá hacer. Juntas, estas máquinas crean un universo único de información para cada uno de nosotros».
Cristina Vélez Vieira es investigadora de ecosistemas digitales, becaria 2024-2025 del Laboratorio de Sociedad Civil Digital (DCSL) del Centro de Filantropía y Sociedad Civil de Stanford (Stanford PACS) y ha liderado varias investigaciones en Colombia. Para ella, el libro de Pariser fue muy interesante porque puso sobre la mesa que «existen unas nuevas tecnologías que de acuerdo con lo que tú consumes, con tu dieta informativa, te dan más de eso y te muestran menos de algunas otras cosas».
Si antes había preocupación porque el acceso a la información no estuviera mediado por sus cualidades inherentes sino en función de su popularidad, ahora el peligro eran los sesgos de la propia personalidad individual y se extendían tanto al buscador como a las plataformas de redes sociales o, incluso, a las noticias.
El machine learning aceleró la entonces creciente industria de la minería de datos. Esta consiste en aplicar principios de estadística avanzada para clasificar y predecir comportamientos a partir de una enorme cantidad de datos históricos. Así, los rastros que dejamos en sitios web y aplicaciones se convirtieron en materia prima para producir conocimiento y riqueza: permiten a los anunciantes individualizar clientes potenciales y alcanzarlos con anuncios personalizados y mucho más eficaces. El filtro burbuja desarrolla la lógica del marketing digital.
Víctor García Perdomo, director del Doctorado en Comunicación de la Universidad de la Sabana, destaca la utilidad de estos algoritmos a la hora, por ejemplo, de recomendarnos libros, productos y servicios que de otra manera nos tardaríamos mucho tiempo en encontrar o, siquiera, en saber que existen. «La dificultad radica», ahonda el docente, «cuando las compañías toman información y la utilizan para enviar mensajes que atacan vulnerabilidades o miedos de las personas en aspectos relacionados con la salud, la economía, la política».
Esto es así porque no solo la publicidad triunfa en el flujo de información personalizada: usando el aprendizaje automatizado, basado en nuestra forma de consumo, casi cualquier mensaje puede ser «optimizado» para conseguir una audiencia considerable.
Si bien muchos de los casos más famosos sobre los impactos negativos de los filtros burbuja se suscriben al mundo de la política, como la manipulación psicológica de Cambridge Analítica a votantes indecisos para la primera campaña presidencial de Donald Trump, o las operaciones coordinadas para promover el «no» al plebiscito por la paz de Colombia en 2016, la cotidianidad nos señala que ese no es para nada el único caso en el que exponerse sostenidamente a un entorno de contenido homogéneo tiene consecuencias graves.
«Hay una burbuja de la gente que se cree fit —explica la investigadora Vélez Vieira—, y en esa burbuja se meten muchísimas teorías de conspiración frente a dietas, cómo combatir la diabetes y un montón de opiniones que empiezan a juntarse si tú básicamente no dejas entrar aire a ese cuarto». Las repercusiones de quedarse en ese espacio por un tiempo pueden ser que «empiezas a generar problemas graves de alimentación […] te lleva a la anorexia, a la bulimia, a creencias que no están vinculadas a mecanismos de certificación científica», detalla la investigadora.
Las «cámaras de eco» surgieron también como una forma de nombrar cierto ámbito digital filtrado alrededor de una opinión, gusto o posición ideológicamente cómoda para un usuario. En ellas no hay espacio para cuestionar la información recibida porque la comunicación sucede solamente entre personas que piensan de manera similar.
Sobre este tipo de filtros más extremos, el profesor García Perdomo explica: «Dependiendo de la extensión de la red [la plataforma], las personas pueden estar expuestas a ideas que no necesariamente comparten». Sin embargo, en ambientes más cerrados, como chats o grupos privados, «las personas se sienten más cómodas corroborando sus valores, creencias y opiniones».
La investigadora Vélez Vieira, por su lado, agrega que «el diseño y la arquitectura [de las plataformas] tienen un rol en las burbujas de filtro, pero también las personas buscamos ciertas dietas de información voluntariamente para seguir creyendo lo que creemos».
Conectarse para aislarse
A principios de 2025, Colombia tenía 41,1 millones de usuarios de internet (77 % de la población) y 36.8 millones de cuentas activas en redes sociales, según el Digital 2025: Global Overview Report de We Are Social y Meltwater. Es decir que tres cuartos de la población colombiana estábamos en línea y un poco menos de esa cantidad escroleábamos con cierta frecuencia el feed de nuestra aplicación de redes sociales favorita.
Para que dimensionemos estos números, solo las cuentas de redes sociales triplican la cantidad de votos que eligieron al actual presidente de la república, en los comicios de mayor participación en los últimos veinticuatro años, según la Registraduría General de la Nación. ¿Qué tan filtradas estarán las dietas informativas de esta cantidad de personas? y ¿por qué es importante hablar de eso?
El Digital News Report de la Thomson Reuters Foundation investiga el consumo de información en cuarenta y ocho países. Sus resultados de 2025 para Colombia indican que la confianza en las noticias cayó al 32 %, el punto más bajo desde que inició la medición. Al preguntar qué plataformas usamos específicamente para informarnos, Facebook conserva la delantera (47 %), seguida de WhatsApp (35 %), YouTube (34 %) e Instagram (28 %). Al final de la lista están, sin embargo, las únicas que crecieron en esta materia con respecto a 2024: TikTok (27 %, creció un
5 %) y X (13 %, creció un 1 %).
Además, en la presentación de los hallazgos de este reporte que hizo la investigadora Amy Ross Arguedas en la última edición del Festival Gabo de periodismo Iberoamericano, describió que hay un «ecosistema emergente alternativo» que algunas audiencias prefieren cada vez más para informarse. No se trata, sin embargo, de medios de comunicación independientes o alternativos. Este nuevo ecosistema se compone de youtubers e influencers.
El profesor García Perdomo expresa su preocupación por un aspecto que este y otros estudios en los que participa evidencian: que cada vez más personas estamos escapando activamente de la información noticiosa porque nos sentimos saturadas, no confiamos en la veracidad de las historias o nos provocan un estado de ánimo negativo.
«Hay un gran reto para evitar que las personas sigan evadiendo la información y escondiéndose de lo que ocurre dentro de sus contextos —dice el profesor—, porque nada peor que cuando las personas no están correctamente informadas, porque no toman decisiones correctas desde el punto de vista político, desde el punto de vista social».
¿Por qué estamos evadiendo las noticias de fuentes informativas y, a la vez, nos informamos cada vez más por opinadores y creadores de contenido?, ¿esto tiene que ver con los filtros en línea? La investigadora Vélez Vieira sentencia: «Yo creo que el tema de las burbujas no se puede ver sin entender también lo que se llama la crisis epistémica».
Se refiere a que, en la actualidad, cuando la información es técnicamente accesible para cualquier persona con un smartphone, hemos olvidado que esta siempre llega a nosotros mediada. Alguien la interpretó primero y, por eso, requiere una validación de parte de una fuente confiable. Estas fuentes confiables eran autoridades epistémicas, allí entraban por ejemplo los científicos, la prensa, las agremiaciones médicas, líderes religiosos y demás.
Para muchas personas, sin embargo, la facilidad del acceso a la información que trajo internet significó un cambio en esa cultura de la verificación por una del «hazlo tú mismo». Si yo puedo acceder a la información directamente en mi celular, no hace falta consultar a una fuente de confianza para validarla. Sentimos que eliminamos un intermediario, pero, en realidad, siempre hay un intermediario. Lo que perdimos fue la necesidad de verificar.
Los reportes indican que cada vez buscamos menos información en línea, que nos enteramos de algunas cosas, no por las fuentes oficiales sino por youtubers o influencers que aparecen en nuestros feeds personalizados. Si son ellos las nuevas autoridades epistémicas, lo que perdimos fue el consenso alrededor de ciertas ideas que antes nos aglutinaban, lo público, por ejemplo. Esto porque, aunque los creadores puedan ser más o menos rigurosos, tienen en común que se especializan en un tema: fragmentan la conversación.
Esta cualidad de dirigirse a un «nicho» con un interés específico es lo que permite que podamos pasar un largo tiempo viendo contenidos distintos sin variar sustancialmente el mensaje o, por lo menos, sin toparnos con algo que nos resulte incómodo. Y no necesariamente es porque el creador intente manipularnos, es la forma en la que la lógica algorítmica modificó la producción de información, como lo explica Ed Finn: «Nuestra cada vez mayor dependencia itinerante de las cajas negras de Facebook, Google, Apple y de otras corporaciones tecnológicas está abocando a un enorme espectro del dominio cultural a producir un trabajo optimizado para esos sistemas, creando el equivalente estético de los monocultivos».
Zygmunt Bauman, reconocido sociólogo y filósofo, dedicó una parte importante de su pensamiento a analizar las transformaciones humanas y sociales que trajo la tecnología. En el libro Generación líquida: transformaciones en la era 3.0 se recoge una conversación con un periodista en la que Bauman afirma que internet «se ha empleado muchísimo más para construirse un refugio que para derribar muros y abrir ventanas; para reservarse una zona de confort exclusiva, lejos de la confusión del mundo caótico y desordenado de la vida, y de los retos que este plantea al intelecto y a la tranquilidad del espíritu».
«En vez de servir a la causa de aumentar la cantidad y mejorar la calidad de la integración humana, de la comprensión mutua, la cooperación y la solidaridad, la red ha facilitado prácticas de aislamiento (enclosure), separación, exclusión, enemistad y conflictividad», remata.
Refugio, confort, tranquilidad del espíritu, aislamiento. Quizás es hora de asumir que la burbuja nos seduce más de lo que nos escandaliza. Hay algo en seguir una recomendación automatizada que nos exime de la responsabilidad inherente a la libertad. Somos omnívoros con una dieta voluntariamente especializada y nuestro estado mental, vulnerable ante la manipulación, es reflejo de esa malnutrición.
No solo es el caso de Colombia. En el último informe de riesgos globales del Foro Económico Mundial se alerta que «la desinformación y la información falsa siguen siendo los principales riesgos a corto plazo por segundo año consecutivo, lo que subraya su persistente amenaza para la cohesión social y la gobernanza, al erosionar la confianza y exacerbar las divisiones dentro y entre las naciones».
Del feed al bot
El desarrollo tecnológico no se detuvo en los algoritmos de machine learning. Actualmente interactuamos con modelos de deep learning (aprendizaje profundo), que conocemos como inteligencia artificial (IA).
Algunas aplicaciones de este tipo han llegado a nosotros en forma de chatbots como Chat-GPT, Gemini, Meta AI, Claude y demás. Estos modelos son extremadamente complejos y no son explicables, es decir, no podemos trazar el camino paso por paso para entender por qué dieron una respuesta específica. Aun así, por ahora, se pueden entender como una evolución de la búsqueda, del acceso al conocimiento.
De manera muy general, cada interacción con un chatbot desencadena un proceso de asociación que no retorna una lista de fuentes ni un contenido recomendado, sino un resumen en lenguaje coloquial. ¿Cómo lo hace? Es complicado, pero sabemos que analiza cada premisa que le damos teniendo en cuenta aspectos como su contenido, tono y contexto y las asocia con patrones que construyó durante su entrenamiento viendo millones de conversaciones entre personas. De esa manera, infiere que para una premisa escueta como «hola» lo que espera el usuario es un saludo de vuelta.
No comprende para responder, crea asociaciones con nuestra premisa y predice lo que debería responder en cada caso. El objetivo siempre es el mismo: generar una respuesta coherente.
Qué tan correctas son sus respuestas es otra cosa y depende de diversos factores como la cantidad y calidad de datos con los que se entrenó, si tiene una indicación invisible (de la compañía o la plataforma, por ejemplo), la premisa que nosotros le demos, entre otros.
A pesar de que estos grandes modelos de lenguaje son generalistas, un estudio de Marc Zao-Sanders, publicado en Harvard Business Review, encontró que el principal uso que les estamos dando es como «terapia/acompañamiento», seguido de «organizar mi vida» y «encontrar un propósito».
Estas son las más recientes autoridades epistémicas para una gran cantidad de personas. El riesgo está en lo que señalaba el académico García Perdomo: en los espacios cerrados nos sentimos en confianza de expresar posiciones extremas y somos más vulnerables a radicalizar nuestras posturas cuando otros las validan ahí.
Estas IA no están hechas para contradecir, sino para predecir lo que queremos saber y mantenernos en la conversación.
«Por lo menos las burbujas, cuando estaban en el debate público, eran visibles —alerta la investigadora Vélez Vieira—, pero ahora estamos en un punto en el que básicamente nadie ve lo que hacemos con el chatbot».
Las burbujas, al igual que la mediación de la información, no desaparecen con los chatbots de ia. Lo que sí podemos perder aún más es la capacidad de identificarlas.
«Por mucho tiempo ha habido una percepción de que el trabajo hecho por la IA o por algoritmos es más objetivo, neutro o más justo, pero esto no es así», escribe Gabriela Arriagada Bruneau, investigadora del Centro Nacional de Inteligencia Artificial de Chile (Cenia) en su libro Los sesgos del algoritmo. «La IA es falible y puede cometer errores porque carece de autocrítica, no puede justificar sus decisiones, sigue dependiendo de los seres humanos y es nuestra labor estar pendientes de cómo está impactando nuestro contexto», detalla en el texto.
La respuesta no es el miedo ni la vuelta al mundo analógico, sino desarrollar anticuerpos: no hay ninguna tecnología, por más cómoda y fluida que se sienta, que nos exima de la responsabilidad de interpretar, del trabajo de cuestionar y verificar el conocimiento, del desafío emocional e intelectual que es vivir en sociedad. Arriagada lo explicó mejor en este aparte: «Aunque hemos llegado a niveles de procesamiento cada vez más poderosos, no debemos olvidar que la IA, por sí sola, no significa algo. Nosotros la significamos».
El Ministerio de las Culturas, las Artes y los Saberes no es responsable de las opiniones recogidas en los presentes textos. Los autores asumen de manera plena y exclusiva toda responsabilidad sobre su contenido.
Ministerio de Cultura
Calle 9 No. 8 31
Bogotá D.C., Colombia
Horario de atención:
Lunes a viernes de 8:00 a.m. a 5:00 p.m. (Días no festivos)
Contacto
Correspondencia:
Presencial: Lunes a viernes de 8:00 a.m. a 3:00 p.m.
jornada continua
Casa Abadía, Calle 8 #8a-31
Virtual: correo oficial –
servicioalciudadano@mincultura.gov.co
(Los correos que se reciban después de las 5:00 p. m., se radicarán el siguiente día hábil) Teléfono: (601) 3424100
Fax: (601) 3816353 ext. 1183
Línea gratuita: 018000 938081 Copyright © 2024
Teléfono: (601) 3424100
Fax: (601) 3816353 ext. 1183
Línea gratuita: 018000 938081
Copyright © 2024