Meta: Culpable de diseñar y vender adicción

Compartir

Este Artículo está patrocinado por:

Desde hace más de 5 años en este espacio académico, he venido denunciando el comportamiento poco ético y cuestionable de la corporación META.

El 25 de marzo de 2026, un jurado en Los Ángeles hizo lo que el Congreso de Estados Unidos nunca pudo: comprobar lo que muchos académicos y periodistas venimos advirtiendo desde hace una década: Meta es culpable de “Diseñar y vender intencionalmente plataformas que destruyeron la salud mental”. El caso se llama K.G.M. v. Meta Platforms, Inc. & YouTube LLC” y su gravedad es comparable con el de la industria del Tabaco.

No fue una sentencia millonaria en términos de lo que estas compañías facturan. Seis millones de dólares, la indemnización otorgada, es lo que Meta gana en poco más de una hora. Pero eso no importa demasiado.

Lo que importa es lo que el veredicto establece como precedente legal: por primera vez, un jurado trató las redes sociales como productos defectuosos, con la misma lógica jurídica que durante décadas se aplicó a la industria tabacalera. Detrás de este caso hay más de diez mil demandas pendientes con una exposición potencial que algunos expertos calculan en cientos de miles de millones de dólares.

El tribunal que se atrevió a cambiar la historia

Por: Gabriel E. Levy B.

Desde el sonado caso de Cambridge Analityc, pasando por los Facebook Papers y las revelaciones de Frances Haugen, he puesto en conocimiento de los lectores todo tipo de acciones cuestionables de esta corporación, los cuales se resumen en los artículos “Facebook y la Polarización Global” publicado en Junio de 2020, “La Bancarrota Moral de Facebook” publicado en Octubre de 2021 y “Facebook e Instagram: Cuando la Meta es el espionaje” publicado en Octubre de 2025,

Esta denuncias me costó intentos de censura por parte de Meta, esto ocurrió mientras moderaba un panel en Andinalink 2025, momento preciso en que el algoritmo de esta corporación bloqueo definitivamente mis cuentas personales de: WhatsApp, Instagram y Threats, tal y como le ha ocurrido a muchos periodistas y medios de comunicación alrededor del mundo que se han atrevido a cuestionar, siendo tal vez el caso más sonado y conocido el del periodista Dave Kendall, del medio Kansas Reflector, cuyas cuentas fueron bloqueadas por Meta luego de una publicación que cuestionaba los algoritmos de Facebook.

Una corporación con prácticas muy cuestionables

Desde interferir en elecciones, hasta afectar la salud mental de los niños, adolescentes y jóvenes, Meta es una corporación con un cuestionable comportamiento ético, lo cual ya no son simple denuncias, es el fallo de la justicia independiente de un tribunal de los Estados Unidos, luego de un juicio con todas las garantías, en las que esta corporación utilizó de los mejores y más costosos abogados de california, para intentar ganar un caso que deja al descubierto que es una corporación tan cuestionable como las grandes tabaqueras del mundo.

El veredicto fue emitido en la Corte Superior del Condado de Los Ángeles, bajo la dirección de la jueza Carolyn B. Kuhl.

El caso formaba parte de los procedimientos de Coordinación del Consejo Judicial de California, un mecanismo que agrupa cientos de demandas similares y que designó este como el juicio piloto, el que fija el marco legal para evaluar todos los demás.

La demandante, identificada como K.G.M. y llamada «Kaley» durante el proceso, tiene actualmente 20 años.

Presentó su demanda cuando tenía 17, junto con su madre. Su historia, que el jurado escuchó durante siete semanas, es al mismo tiempo excepcional y tristemente común: comenzó a usar YouTube a los 6 años, Instagram a los nueve años. Antes de terminar la escuela primaria ya había publicado 284 videos.

Llegó a pasar hasta 16 horas seguidas en Instagram en un solo día. Desarrolló ansiedad severa, depresión, dismorfia corporal, conductas de autolesión y pensamientos suicidas.

Se escondía en los baños de la escuela para revisar notificaciones.  Dejó sus aficiones.

Se fue alejando de su familia. Hoy trabaja como compradora personal en Walmart y vive con su madre.

El jurado deliberó durante nueve días, acumulando más de 43 horas de discusión.

En sus formularios de veredicto respondió afirmativamente a siete preguntas clave para cada empresa: que fueron negligentes en el diseño de sus plataformas, que esa negligencia fue un factor sustancial en el daño causado, que no advirtieron adecuadamente sobre los peligros, que sabían o debían saber que sus productos eran peligrosos para menores, y que actuaron con malicia, opresión o fraude, lo que habilitó los daños punitivos.

Las indemnizaciones se dividieron en tres millones compensatorios y tres millones punitivos. Meta asumió el 70% de responsabilidad y Google el 30%.

Los mecanismos de adicción que el jurado declaró defectuosos

La estrategia legal del equipo demandante, liderado por el abogado Mark Lanier, fue quirúrgica. En lugar de atacar el contenido generado por usuarios, protegido por la Sección 230 de la Ley de Decencia en las Comunicaciones, se enfocaron en el diseño del producto.

Argumentaron que las plataformas funcionaban como un casino digital, y que las empresas habían tomado prestadas técnicas conductuales y neurobiológicas de las máquinas tragamonedas y del marketing de la industria del cigarrillo.

La jueza Kuhl validó ese enfoque en noviembre de 2025 al distinguir entre las funciones de publicación, protegidas por la ley, y las características de diseño como la temporización de notificaciones, los bucles de enganche y la ausencia de controles parentales efectivos.

El jurado identificó nueve mecanismos específicos de adicción deliberada:

  • Scroll infinito: alimentación sin fin que alienta el uso prolongado sin puntos naturales de parada.
  • Reproducción automática de videos: continuación del contenido sin intervención del usuario.
  • Notificaciones push: diseñadas para atraer repetidamente al usuario de vuelta a la plataforma.
  • Algoritmos de recomendación: que crean bucles de contenido progresivamente más extremo.
  • Filtros de belleza: que manipulan la apariencia del usuario, contribuyendo a la dismorfia corporal.
  • Conteos de ‘me gusta’ y métricas de validación social: que generan bucles de retroalimentación basados en dopamina.
  • Sistemas de recompensa variable: que explotan las vías neurológicas de la dopamina como el juego de azar.
  • Ausencia de controles parentales efectivos: que permiten a los menores evadir la supervisión.
  • Falta de verificación real de edad: que permite a menores de 13 años crear cuentas libremente.

La doctora Anna Lembke, experta en medicina de la adicción de la Universidad de Stanford y autora de Dopamine Nation, testificó que los mecanismos de recompensa de las redes sociales activan las mismas vías neurológicas de dopamina que el juego de azar y la adicción a sustancias, con los adolescentes siendo particularmente vulnerables por tener el córtex prefrontal aún en desarrollo.

Las pruebas internas que hundieron a las tecnológicas

Los documentos internos de las compañías fueron la columna vertebral del caso, y conectan directamente con lo que Frances Haugen filtró en 2021.

Durante el juicio se presentaron evidencias que revelaban que las empresas no solo conocían los daños, sino que los habían calculado y decidido ignorar.

Un memorando interno de Meta rezaba: «Si queremos ganar a lo grande con los adolescentes, debemos captarlos como preadolescentes».

Datos internos mostraban que los niños de 11 años tenían cuatro veces más probabilidades de seguir volviendo a Instagram en comparación con aplicaciones competidoras.

Un estudio llamado Project Myst encontró que los menores que habían experimentado efectos adversos eran los que más probabilidades tenían de volverse adictos, y que los padres eran impotentes para detenerlo.

Comunicaciones internas de Meta comparaban los efectos de la plataforma con «vender drogas y juegos de azar».

Un empleado de Instagram escribió que eran «básicamente dealers».

Mark Zuckerberg testificó en persona el 18 de febrero de 2026. Afirmó que mantener seguros a los usuarios «siempre fue una prioridad» y reconoció: «Siempre desearía que hubiéramos llegado antes» con las herramientas de seguridad.

Adam Mosseri, jefe de Instagram, declaró que el uso de redes sociales puede ser «problemático» pero no «clínicamente adictivo».

Los Facebook Papers de 2021: la profecía que se cumplió en un tribunal

Hay algo que hace este veredicto más resonante que cualquier otro: ya sabíamos lo que iba a decir. Lo sabíamos desde 2021, cuando Frances Haugen, exgerente de producto de Facebook, filtró miles de páginas de documentos internos que el Wall Street Journal publicó como «The Facebook Files».

Esos documentos contenían exactamente lo que el jurado californiano terminó condenando, con cinco años de anticipación.

Las revelaciones más pertinentes eran demoledoras: la investigación interna de Instagram concluía que «empeoramos los problemas de imagen corporal de una de cada tres adolescentes».

El 32% de las adolescentes que se sentían mal con su cuerpo declaraban que Instagram las hacía sentir peor.

En el Reino Unido, el 17% de las adolescentes reportó que Instagram agravaba sus trastornos alimentarios y el 13,5% dijo que exacerbaba sus pensamientos suicidas. Más del 40% de los adolescentes sentían que eran «poco atractivos» tras comenzar a usar la aplicación.

Haugen testificó ante el Senado de EE.UU. en octubre de 2021 con una frase que quedó grabada en la memoria colectiva: «Estoy aquí porque creo que los productos de Facebook dañan a los niños, fomentan la división y debilitan nuestra democracia». Explicó que Facebook estaba «comprando sus ganancias con nuestra seguridad». Años después, durante el juicio de 2026, declaró que los directivos tecnológicos se preocupaban por los adolescentes solo como potenciales nuevos usuarios: «Les preocupaba la percepción pública, no la salud real de los niños».

Lo que en 2021 fue la denuncia solitaria de una informante, en 2026 se convirtió en la base de un veredicto histórico. El juicio transformó esas filtraciones en pruebas judiciales formales y les dio el peso que el sistema político no había querido darles.

«El momento Big Tobacco de la tecnología»: reacciones que sacudieron Washington y Wall Street

La expresión más repetida tras el veredicto fue inevitable. El senador Ed Markey declaró: «El momento Big Tobacco de la gran tecnología ha llegado».

La senadora Marsha Blackburn exigió la aprobación de la Ley de Seguridad Infantil en Línea.

El senador Josh Hawley pidió reformar la Sección 230, señalando que jurados ordinarios habían hecho lo que el Congreso no se atrevió a hacer.

El congresista Jimmy Patronis presentó un proyecto para derogar completamente esa norma que durante décadas protegió a las plataformas de demandas por daños.

Meta y Google anunciaron que apelarán.

Meta declaró que «la salud mental de los adolescentes es profundamente compleja y no puede vincularse a una sola aplicación». Google afirmó que el caso «malinterpreta YouTube». Sus abogados no convencieron al mercado: las acciones de Meta cayeron casi un 8% el 27 de marzo y otro 2,4% al día siguiente. Las de Alphabet, matriz de Google, bajaron un 3% y luego otro 1,3%.

Jonathan Haidt, autor de The Anxious Generation, advirtió que la exposición total podría alcanzar cientos de miles de millones de dólares, lo suficiente para forzar cambios reales de comportamiento corporativo. La profesora de derecho Mary Franks, de la Universidad George Washington, lo resumió con precisión: «La era de la impunidad ha terminado».

El ecosistema legal masivo detrás del caso piloto

El caso K.G.M. es apenas la punta visible de un iceberg jurídico colosal.

Existe un litigio multidistrital federal paralelo, MDL No. 3047, en el Tribunal de Distrito Norte de California que agrupa casi 600 casos federales adicionales, incluidas demandas de más de 250 distritos escolares y acciones de 41 fiscales generales estatales más el Distrito de Columbia contra Meta.

Los primeros juicios piloto federales están programados para el 15 de junio de 2026. En total, más de 3.000 demandas están pendientes contra Meta, YouTube, Snapchat y TikTok.

La comparación con la industria tabacalera no es retórica vacía.

El Acuerdo Marco de Liquidación del Tabaco de 1998 costó a las tabacaleras 206.000 millones de dólares en 25 años y transformó una industria entera. Los paralelismos son estructurales: ambas industrias poseían investigación interna que demostraba que sus productos causaban daño, minimizaban públicamente los riesgos, diseñaban los productos para maximizar el potencial adictivo y dirigían deliberadamente su marketing a los más jóvenes.

Con una diferencia significativa: la industria tabacalera perdió más de 800 casos antes de que la marea cambiara. En el caso de la tecnología, el primer juicio piloto ya resultó en condena.

TikTok y Snapchat llegaron a acuerdos extrajudiciales confidenciales en enero de 2026, antes del inicio del juicio.

Snap, con una capitalización de mercado veinte veces menor que la de Meta, es particularmente vulnerable; su función de «rachas» fue específicamente citada como mecanismo adictivo.

El contexto global: una ola regulatoria sin precedentes

El fallo californiano no ocurre en un vacío. Forma parte de una oleada regulatoria mundial que lleva años acumulándose y que en los últimos meses adquirió impulso definitivo.

Australia prohibió las redes sociales a menores de 16 años en diciembre de 2025. Francia aprobó una prohibición para menores de 15 años.

El Parlamento Europeo votó a favor de una edad mínima de 16 años para toda la Unión Europea y la prohibición de funciones adictivas como el scroll infinito y la reproducción automática.

El Acta de Seguridad en Línea del Reino Unido entró en vigor en marzo de 2025 con multas de hasta el 10% de la facturación global. Al menos 42 países están considerando o ya han aprobado restricciones de edad para redes sociales.

En Estados Unidos, más de 45 estados han propuesto legislación relevante. California, Nueva York, Florida, Georgia, Connecticut, Tennessee y Nebraska tienen leyes vigentes que restringen funciones adictivas o exigen consentimiento parental.

La Comisión Federal de Comercio finalizó en enero de 2025 una reforma integral de la ley de protección de la privacidad infantil, COPPA, exigiendo consentimiento parental explícito para publicidad dirigida a menores.

Un patrón que muchos académicos venimos denunciando

El patrón de ocultamiento que el juicio dejó al descubierto no es nuevo ni accidental. En 2021, la investigadora Kelley Cotter, de la Universidad Estatal de Pensilvania, publicó en la revista académica Information, Communication & Society un estudio que documentó con precisión cómo Instagram niega sistemáticamente la existencia del «shadowbanning», es decir, la supresión silenciosa del alcance de publicaciones, a pesar de que su propia infraestructura técnica incluye esa capacidad, registrada incluso como patente corporativa.

Cotter acuñó el concepto de «gaslighting de caja negra» para describir cómo la plataforma explota su opacidad algorítmica como arma discursiva: ante las denuncias de usuarios que experimentaban caídas drásticas e inexplicables en su visibilidad, Instagram respondía negando, ofreciendo explicaciones alternativas y transfiriendo la responsabilidad al creador de contenido.

El estudio demostró que esta estrategia afectaba de forma desproporcionada a grupos críticos y minoritarios.

Lo que Cotter describió como una «amenaza formidable para la rendición de cuentas» quedó confirmado cinco años después en el tribunal de Los Ángeles: Meta no solo suprimía contenido sin decirlo, sino que suprimía su propia investigación interna sobre los daños que ese contenido causaba.

Aún falta mucho camino por recorrer

El veredicto del 25 de marzo es histórico, pero sería ingenuo leerlo como el cierre de una historia. Es, más bien, la apertura de un expediente que lleva décadas acumulándose. La adicción por diseño, el gaslighting algorítmico, la supresión de investigación interna, todo lo que el jurado de Los Ángeles condenó, representa apenas la punta visible de un iceberg cuya parte sumergida es considerablemente más oscura.

Quedan sin sancionar prácticas de manipulación de datos a escala masiva, la monetización de la desinformación, el uso de perfiles psicográficos para modificar conductas de consumo y, sobre todo, la que muchos investigadores consideran la más grave de todas: la interferencia sistemática en procesos democráticos alrededor del mundo.

Esa historia comenzó con Cambridge Analytica, el escándalo que en 2018 reveló cómo datos de hasta 87 millones de usuarios de Facebook fueron extraídos sin consentimiento y utilizados para construir perfiles electorales de alta precisión en la campaña del Brexit. Lo que parecía un caso aislado se fue regando como mancha de aceite: la misma metodología, microtargeting emocional, explotación de sesgos cognitivos, amplificación algorítmica de contenido divisivo, se documentó luego en elecciones de Brasil, México, Filipinas, India, Kenya y Colombia, entre decenas de países más.

Las plataformas de Meta no solo sabían que sus sistemas podían ser armados con fines electorales; en varios casos facilitaron activamente esas operaciones a cambio de contratos publicitarios.

Ese capítulo, el más pesado del expediente, aún no ha llegado a ningún tribunal con el peso que merece.

En conclusión, Este fallo no cambia Silicon Valley por el monto de seis millones de dólares. Lo cambia porque establece, por primera vez en un tribunal, que diseñar una plataforma para crear adicción es una forma de negligencia jurídicamente sancionable.

Lo que Frances Haugen denunció sola en 2021, un jurado de doce personas lo convirtió en derecho en 2026. Con más de 10.000 casos pendientes y una exposición potencial de cientos de miles de millones, la industria tecnológica se enfrenta a su momento tabacalero. Para América Latina, la señal es clara: la regulación ya no es una posibilidad, es una obligación.

Fuentes principales consultadas

NPR — Jury finds Meta and Google negligent in social media harms trial (25 de marzo de 2026)

CNN Business — Meta and YouTube found liable in social media addiction trial (25 de marzo de 2026)

CNBC — Jury in Los Angeles finds Meta, YouTube negligent in social media addiction trial (25 de marzo de 2026)

NBC News — Jury finds Meta and YouTube negligent in landmark lawsuit on social media safety (25 de marzo de 2026)

Bloomberg — Meta, Google Risk Big Tobacco-Like Fallout After Addiction Trial (26 de marzo de 2026)

The Conversation — Meta and Google just lost a landmark social media addiction case. A tech law expert explains the fallout (2026)

The Conversation — Jury finds Instagram and YouTube addictive in lawsuit poised to reshape social media (2026)

Infobae — Meta y YouTube fueron declarados negligentes en caso de adicción a las redes sociales (25 de marzo de 2026)

La Nación (Argentina) — Veredicto histórico: un jurado de California declaró responsables a Meta y YouTube (25 de marzo de 2026)

El País de Cali — Jurado en EE.UU. declara culpables a Meta y YouTube por adicción en menores (2026)

TuNota Colombia — Meta enfrenta condena millonaria por adicción infantil a redes sociales (2026)

The Spencer Law Firm — Social Media Addiction Lawsuits (2026): KGM Trial, MDL 3047, and TikTok & Snapchat Settlements Explained

Tech Insider — Meta Google Social Media Addiction Verdict 2026: $6M Ruling

Fox Business — Jury finds Meta, Google liable in landmark social media addiction trial, awards more than $6M (2026)

Human Rights Watch — Brazil Passes Landmark Law to Protect Children Online (septiembre de 2025)

Democracy Now! — Social Media Addiction: Facebook Whistleblower Says Big Tech Has Known & Ignored Problem for Years (febrero de 2026)

Sen. Ed Markey (comunicado oficial) — Statement on Social Media Addiction Trial Verdict (2026)

MIT Technology Review — Frances Haugen says Facebook’s algorithms are dangerous. Here’s why (octubre de 2021)

Scroll al inicio
Abrir chat
1
Escanea el código
Hola 👋
¿En qué podemos ayudarte? Contáctanos y te atenderemos directamente