Sora: la red social que hace tambalear la realidad

Compartir

Un rostro conocido sonríe frente a la cámara, improvisa un discurso político, llora al hablar de su infancia. Parece una confesión sincera. Pero no es real. Ni el video, ni las lágrimas, ni el discurso. Es Sora. Y millones de personas ya han creído lo contrario.

Cuando el video dejó de ser prueba

Por: Gabriel E. Levy B.

Hasta hace unos años, la imagen en movimiento era la máxima evidencia de lo que había ocurrido. «Si está en video, es cierto», solía decirse.

Pero esa certeza comenzó a desmoronarse con los primeros deepfakes, aquellos montajes rudimentarios que mostraban rostros intercambiados, voces clonadas y movimientos torpes. Parecían un truco de magia digital, limitado a entornos marginales o experimentales.

Sin embargo, como explica Hany Farid, profesor de la Universidad de California en Berkeley y pionero en la detección de manipulación digital, la evolución de la inteligencia artificial transformó estos juegos de laboratorio en herramientas sofisticadas de producción visual.

Los deepfakes dejaron de ser un truco y se convirtieron en un arte invisible.

Con Sora, esa tecnología se democratizó. Ahora, cualquier usuario con acceso a la red social puede crear una escena hiperrealista, desde una protesta ficticia hasta una conversación privada que nunca existió.

La investigadora danesa Britt Paris, especialista en desinformación digital, ya advertía en 2020 que la amenaza de los deepfakes no era solo técnica, sino epistemológica: «si cualquier imagen puede ser manipulada, entonces todo testimonio visual se convierte en sospechoso». Sora no inventó este problema, pero lo hizo viral.

El imperio de lo plausible

Basta una frase. Un texto breve. Una imagen de referencia.

Y Sora genera un video. En segundos. El resultado es tan preciso que engaña no solo a la vista, sino también a los algoritmos entrenados para detectar falsificaciones. Este fenómeno, ampliamente documentado en las últimas semanas por medios como Fast Company y The New York Times, alarma a expertos en ciberseguridad, justicia, política y comunicación.

La función «cameos», por ejemplo, permite insertar a cualquier usuario en una escena generada por inteligencia artificial con solo una verificación facial.

El problema es que dicha verificación, en la práctica, se vulneró a las pocas horas del lanzamiento. Empresas especializadas en ingeniería de suplantación lograron incrustar los rostros de celebridades en situaciones ficticias, burlando las barreras de autenticación implementadas por OpenAI.

Un caso concreto fue el del actor Bryan Cranston, quien denunció públicamente el uso de su imagen en videos fabricados con fines promocionales sin su consentimiento, lo que obligó a la empresa a revisar sus filtros.

Más allá de los famosos, el riesgo recae en los millones de usuarios anónimos que no cuentan con una red legal ni mediática para defender su identidad.

Sora convierte la realidad en una materia moldeable, donde la línea entre lo verdadero y lo falso se vuelve difusa, manipulable y, lo más inquietante, atractiva.

La verdad como un juego de espejos

El peligro de Sora no radica solo en la creación de contenidos falsos, sino en la erosión sistemática de la confianza.

El llamado «dividendo del mentiroso» describe con precisión este nuevo escenario: si todo puede ser fabricado, entonces incluso lo verdadero puede ser descartado como ficción.

Esta noción, desarrollada por los investigadores Chesney y Citron en su artículo «Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security», revela una paradoja inquietante: la tecnología que permite ver más, también permite dudar de todo.

Los videos generados con Sora circulan sin freno por redes sociales, se editan, se recontextualizan, se convierten en memes, en pruebas de delitos inexistentes, en campañas de odio o en herramientas de manipulación política.

Durante las recientes elecciones municipales en Estados Unidos, se detectaron al menos veinte casos en los que se utilizaron deepfakes creados con Sora para simular declaraciones falsas de candidatos, según un informe de la Comisión Federal Electoral.

Aunque las plataformas intentaron bloquear estos contenidos, muchos llegaron a viralizarse antes de ser eliminados.

Lo más preocupante es que los algoritmos de recomendación de las redes sociales promueven este tipo de videos por su capacidad de retención.

Son visualmente impactantes, emocionalmente atractivos, fáciles de consumir y difíciles de verificar. En este contexto, la mentira no necesita ser perfecta, solo necesita ser más convincente que la verdad.

Un futuro sin testigos confiables

Las implicaciones legales y éticas de Sora apenas comienzan a discutirse. OpenAI asegura haber incorporado marcas de agua invisibles, metadatos codificados y restricciones para evitar el uso de su plataforma con fines políticos, sexuales o violentos.

Sin embargo, múltiples informes periodísticos coinciden en que estas medidas son fácilmente vulnerables o, en el mejor de los casos, insuficientes.

La regulación, como suele ocurrir en el ámbito tecnológico, corre detrás del vértigo de la innovación.

En Estados Unidos y Europa, legisladores debaten proyectos para exigir etiquetas claras en contenidos sintéticos, obligar a las plataformas a identificar los videos generados por IA o sancionar a quienes utilicen estas herramientas para suplantar identidades.

Pero estas propuestas están lejos de convertirse en leyes efectivas, y mientras tanto, la proliferación de contenido falso no se detiene.

Casos como el de Martin Luther King Jr., cuya imagen fue utilizada en un video apócrifo para promover ideas contrarias a su legado, ilustran el alcance del problema.

Aunque OpenAI eliminó el contenido y ofreció disculpas públicas, el daño simbólico ya estaba hecho.

Las plataformas no solo reproducen imágenes: reproducen sentidos, emociones, decisiones. Y cuando estas imágenes son falsas, también lo son las consecuencias que desencadenan.

En Latinoamérica, donde la fiscalización institucional es más débil y la polarización informativa más aguda, Sora podría ser una herramienta peligrosa en manos de actores políticos o grupos extremistas.

En Brasil, por ejemplo, se detectaron videos falsos que mostraban a líderes indígenas apoyando propuestas gubernamentales que en realidad rechazaban.

Estos clips circularon ampliamente en WhatsApp y Telegram, influyendo en debates legislativos clave.

En conclusión, Sora representa una nueva etapa en la relación entre imagen, tecnología y verdad. No es solo una herramienta para crear contenido.

Es un dispositivo que reconfigura las bases mismas de la comunicación digital. Al democratizar la producción de deepfakes, transforma la sospecha en norma, el montaje en espectáculo y la duda en estrategia.

Frente a este escenario, la sociedad necesita algo más que regulaciones. Necesita una nueva alfabetización visual, una ética del consumo digital y, sobre todo, un renovado compromiso con la verdad.

Referencias

Chesney, R., & Citron, D. K. (2019). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, 107(6), 1753–1820.

Farid, H. (2021). Digital forensics in a post-truth world. University of California Press.

Paris, B. (2020). Deepfakes and the epistemic crisis of the visual. Media and Communication, 8(3), 13–24.

Scroll al inicio
Abrir chat
1
Escanea el código
Hola 👋
¿En qué podemos ayudarte? Contáctanos y te atenderemos directamente