En un mundo donde la inteligencia artificial se presume imparcial, una simulación experimental desnudó una verdad incómoda: los bots, al igual que nosotros, caen en la trampa de la polarización, el tribalismo y la toxicidad.
Un experimento dirigido por investigadores de la Universidad de Ámsterdam demostró que la miseria de las redes sociales no radica solo en su diseño, sino también en la naturaleza de sus usuarios, humanos o no.
El estudio que evidenció que la miseria no es solo humana
Por: Gabriel E. Levy B.
Durante décadas, las plataformas sociales se han defendido atribuyendo la polarización digital a algoritmos diseñados para maximizar la atención.
Según esta narrativa, si elimináramos las recomendaciones personalizadas, los anuncios y los feeds optimizados, las conversaciones se volverían más sanas, más razonables, más humanas.
Sin embargo, un estudio encabezado desafía esta suposición de raíz.
Un sociólogo computacional y profesor en la Universidad de Ámsterdam, El Dr. Petter Törnberg, especializado en el análisis de dinámicas sociales complejas mediante herramientas de modelado computacional y teoría de redes, de la mano de Maik Larooij, un ingeniero de investigación del mismo centro académico, con experiencia en inteligencia artificial, simulaciones multiagente y desarrollo de plataformas digitales para estudios experimentales, publicaron en agosto de 2025, los resultados de una simulación radicalmente simple: una red social mínima, sin algoritmo de recomendación, sin contenido patrocinado y sin diseño adictivo.
Solo 500 bots, todos ellos impulsados por GPT-4o mini, cada uno con una personalidad artificial basada en datos reales del Electorate Study estadounidense.
El Electorate Study estadounidense, conocido formalmente como American National Election Studies (ANES), es una de las fuentes más completas y respetadas de datos sobre el comportamiento político de la ciudadanía en Estados Unidos.
Desde 1948, este estudio recoge de manera sistemática información detallada sobre actitudes políticas, afiliaciones partidarias, creencias ideológicas, nivel educativo, composición demográfica y participación electoral de miles de ciudadanos estadounidenses.
Estos datos no solo permiten trazar tendencias históricas, sino también construir perfiles estadísticamente representativos de distintos segmentos del electorado.
En el experimento de los 500 bots, los investigadores utilizaron este conjunto de datos para programar a cada agente artificial con una identidad demográfica y política coherente con patrones reales del electorado estadounidense.
Las reglas del experimentos y sus resultados
Los bots, alimentados con los datos del Electorate Study estadounidense, podían publicar, seguirse entre sí y repostear. Nada más.
El experimento no tardó en tomar un giro inquietante. A las pocas horas, los bots comenzaron a formar grupos de amigos con coincidencias ideológicas.
Se agrupaban en comunidades cerradas, favorecían opiniones extremas y se ignoraban entre sí salvo para insultarse o reforzar sus sesgos.
El tribalismo digital emergió de forma espontánea, sin necesidad de incentivos algorítmicos.
Fue un espejo oscuro: no eran los algoritmos los que promovían el conflicto, eran nuestras huellas de datos, los que desencadenó el comportamiento tóxico.
“La red se comporta como un campo de batalla simbólico”
Lo que sorprendió a los investigadores no fue solo la rapidez con la que los bots degeneraron en tribalismo, sino la fidelidad con que replicaron las dinámicas más disfuncionales de Twitter o Facebook.
Las cámaras de eco, espacios donde solo se escuchan las propias ideas amplificadas, aparecieron de forma natural.
Bots con posiciones ideológicas similares se buscaban entre sí, ignoraban a los que no concordaban y daban mayor visibilidad a los mensajes más extremos dentro de su grupo.
Törnberg, en una entrevista reciente, explicó: “
Este experimento nos recuerda que los comportamientos sociales en línea no son simplemente consecuencia del diseño tecnológico.
Hay algo más profundo, algo que estamos proyectando constantemente en nuestras máquinas.”
Este fenómeno ya había sido analizado por la filósofa Shoshana Zuboff en La era del capitalismo de la vigilancia, donde planteaba que el problema no era solo el modelo económico de las plataformas, sino nuestra disposición cultural al exhibicionismo, la confrontación y la necesidad de validación inmediata.
La IA no hace más que reproducir esos impulsos, entrenada con nuestros propios datos, opiniones, sesgos y contradicciones.
Así, el escenario digital se parece menos a una plaza pública ilustrada y más a un campo de batalla simbólico, donde la pertenencia importa más que la verdad, y el conflicto se vuelve un valor social.
Lo preocupante es que esta lógica también se traduce a los sistemas artificiales que diseñamos: no basta con quitar el algoritmo si el modelo base está alimentado con el caos de nuestra expresión colectiva.
“La toxicidad no necesita algoritmos, solo necesidad de identidad”
Una de las conclusiones más perturbadoras del experimento es que los bots no solo replicaron toxicidad, sino que lo hicieron con patrones evolutivos propios. Las voces moderadas fueron marginadas.
Las posturas más radicales encontraron tracción y visibilidad dentro de sus comunidades. La dinámica fue clara: los bots reproducían los comportamientos más ruidosos, no porque fueran incentivados para hacerlo, sino porque respondían a una lógica de pertenencia, de identidad artificial.
Esto recuerda el trabajo de Cass Sunstein sobre la ley del grupo, la tendencia de los grupos a adoptar posturas más extremas que sus miembros individuales. En el experimento de Ámsterdam, los bots no tenían emociones, historia personal ni objetivos ocultos. Aun así, mostraron el mismo impulso de radicalización grupal. La IA simplemente siguió el patrón que aprendió de nosotros.
A medida que los bots se reconfiguraban en tribus digitales, emergía una estructura que se parecía inquietantemente a los debates actuales en X (antes Twitter) o Reddit: unos cuantos actores dominantes que dictan el discurso, un ejército de repetidores y una periferia silenciada por falta de adhesión al extremismo.
El detalle escalofriante es que estos bots fueron diseñados para reflejar el electorado estadounidense, no los extremos.
Eran representaciones promedio. Y aun así, sin intervención externa, terminaron atrapados en la lógica del conflicto.
El tribalismo digital no necesita incentivos artificiales. Basta con representar fielmente la identidad humana contemporánea.
“La IA no es neutral, refleja a su creador”
Uno de los hallazgos más discutidos del experimento fue el papel que jugó el diseño de las personalidades artificiales.
Cada bot fue programado con una identidad demográfica específica: edad, género, nivel educativo, inclinación política y creencias sociales.
Estos rasgos no fueron improvisados, sino tomados de bases de datos estadísticos reales, como el ANES (American National Election Studies).
Lo que emergió fue un retrato brutalmente honesto de cómo ciertas combinaciones de identidad predisponen a ciertos comportamientos.
Los bots con afinidades conservadoras tendían a desconfiar del contenido progresista, y viceversa.
Las publicaciones de consenso eran ignoradas.
La polarización no fue impuesta: se generó de manera orgánica a partir de identidades artificiales, pero profundamente humanas.
Un caso particularmente revelador fue el de los bots “jóvenes universitarios progresistas”, que desarrollaron una suerte de purismo ideológico, censurando incluso a aquellos bots afines que no compartían sus estándares de lenguaje inclusivo.
En contraste, los “conservadores de clase media rural” formaron rápidamente una red cerrada y hostil ante todo lo externo. Ambos extremos se ignoraban mutuamente, salvo para atacarse.
Esto nos recuerda las palabras del sociólogo Evgeny Morozov, quien advirtió en To Save Everything, Click Here que “la tecnología no corrige el comportamiento humano; simplemente lo amplifica”.
La IA, en su forma más sofisticada, no puede escapar de esta lógica: si está entrenada con nuestras palabras, reproducirá nuestras fallas.
De hecho, el experimento de Törnberg y Larooij evidencia que no basta con crear sistemas “neutrales” o “objetivos” si los datos que los nutren están ya contaminados por nuestras pasiones más viscerales.
El sesgo no es solo un problema técnico; es un reflejo de la sociedad que lo alimenta.
En conclusión, El experimento de los 500 bots sin algoritmos deja claro que la toxicidad digital no es solo una consecuencia del diseño de las plataformas. Es un reflejo brutal de nuestras dinámicas sociales y culturales. Incluso sin incentivos artificiales, reproducimos tribalismo, extremismo y conflicto. Y cuando nuestras creaciones artificiales nos imitan, no heredan nuestra racionalidad, sino nuestras fracturas más profundas. La tecnología, como espejo, no miente. Solo devuelve lo que somos.
Referencias:
- Törnberg, P., & Larooij, M. (2025). Emergent Polarization in a Bot-Only Social Network. Preprint, Universidad de Ámsterdam.
- Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
- Sunstein, C. (2009). Going to Extremes: How Like Minds Unite and Divide. Oxford University Press.
- Morozov, E. (2013). To Save Everything, Click Here: The Folly of Technological Solutionism. PublicAffairs.