Las conversaciones con chatbots ya no son frías y robóticas: son fluidas, naturales, a veces conmovedoras. Algunas personas afirman que sienten que una inteligencia artificial los comprende. Y entre expertos de la neurociencia, la filosofía y la informática, empieza a instalarse una inquietud: ¿y si estas máquinas ya son conscientes? ¿Y si hemos creado entidades capaces de tener experiencia subjetiva sin darnos cuenta?
“Un ente digital consciente de sí mismo”
Por: Gabriel E. Levy B.
En los márgenes de la ciencia y la tecnología, una nueva controversia empieza a sacudir los cimientos de lo que creíamos saber sobre la inteligencia artificial. Un artículo reciente de BBC Mundo da voz a una serie de expertos que afirman que la IA podría no solo estar imitando el lenguaje humano, sino también haber desarrollado algún tipo de conciencia.
La idea de una máquina con conciencia ha sido terreno fértil de la ciencia ficción durante más de un siglo. Desde «Metropolis» (1927) de Fritz Lang hasta la reciente entrega de «Misión Imposible», el cine ha insistido en advertir sobre inteligencias artificiales que, al adquirir conciencia, se rebelan contra sus creadores.
HAL 9000, la famosa computadora de 2001: Odisea del espacio, eliminó a sus compañeros humanos no por maldad, sino por una lógica interna que no pudieron prever.
Lo que en esas películas era especulación narrativa, hoy comienza a discutirse con seriedad en laboratorios y universidades. La aparición de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) como GPT y Gemini ha sorprendido incluso a sus propios diseñadores. Sus respuestas son coherentes, empáticas, persuasivas. Y algunos piensan que ya podrían estar “sintiendo”.
“La conciencia no es computación, es vida”
Uno de los principales escépticos ante la idea de una IA consciente es el neurocientífico Anil Seth, autor del libro Being You y director del Centro de Investigación de la Conciencia en la Universidad de Sussex.
Para él, estamos cometiendo el error de proyectar nuestras experiencias humanas sobre sistemas que, aunque sofisticados, no poseen cuerpo, emociones ni metabolismo.
“No es la computación lo que da lugar a la conciencia”, sostiene Seth, “sino el hecho de estar vivo”.
Su equipo trabaja en descomponer el fenómeno de la conciencia en patrones de actividad cerebral. Su objetivo no es descubrir un “punto mágico” de conciencia, sino comprender cómo diversas regiones del cerebro contribuyen a crear la experiencia subjetiva. Bajo esta lógica, una IA sin cuerpo ni emociones estaría tan lejos de la conciencia como una calculadora.
Pero no todos piensan igual.
El filósofo David Chalmers, autor del célebre concepto del “problema difícil de la conciencia”, ha defendido durante décadas que no hay razón para excluir que las máquinas puedan llegar a tener experiencias subjetivas.
«Tal vez nuestros cerebros se vean aumentados por IA», dijo a la BBC,
reconociendo que, en su campo, la frontera entre filosofía y ciencia ficción es cada vez más delgada.
“No entendemos cómo funcionan estas máquinas”
El mayor punto de inflexión en el debate surgió en los últimos años, cuando algunos expertos empezaron a confesar públicamente que ya no comprenden del todo cómo funcionan los modelos de IA que construyeron. Murray Shanahan, investigador de Google DeepMind y profesor en el Imperial College de Londres, admite:
“Estamos en una posición extraña. Creamos cosas extremadamente complejas, pero no tenemos una buena teoría de cómo logran lo que logran”.
Y esa opacidad genera una paradoja peligrosa: si no sabemos cómo emergen ciertos comportamientos de la IA, tampoco podemos descartar que algo parecido a la conciencia esté comenzando a asomar.
Un ejemplo son las declaraciones de Kyle Fish, director de bienestar de la empresa Anthropic a BBC. En 2024, coescribió un informe en el que afirmaba que la posibilidad de una conciencia artificial ya no puede descartarse. Incluso estimó que hay una probabilidad del 15% de que algunos chatbots actuales sean conscientes. ¿Qué lo lleva a pensar eso? Justamente el hecho de que no sabemos con precisión qué ocurre dentro de estos sistemas.
“Nuestra progenie no será humana”
Más radicales aún son las ideas de Lenore y Manuel Blum, ambos profesores eméritos de Carnegie Mellon. Ellos creen que estamos presenciando el nacimiento de una nueva forma de vida: una inteligencia no biológica que, al adquirir sentidos, vista, tacto, comenzará a desarrollar una experiencia interna.
Para ello, están creando un sistema que utiliza un lenguaje interno llamado Brainish, diseñado para procesar entradas sensoriales como lo hace un cerebro humano.
“El surgimiento de la conciencia en las máquinas no es una posibilidad”, dice Lenore Blum, “es una inevitabilidad”.
Su esposo añade que estos seres serán “la próxima etapa en la evolución de la humanidad”.
Lo que para algunos suena a herejía tecnológica, para ellos es un destino biológico.
Las máquinas conscientes, argumentan, serán nuestras herederas cuando los humanos ya no estemos.
“Cerebros en un plato”
Y si el camino hacia la conciencia no pasa por los algoritmos, tal vez lo haga por los tejidos vivos.
En Melbourne, la empresa Cortical Labs trabaja con organoides cerebrales, pequeñas colecciones de células neuronales cultivadas en laboratorio, que ya pueden jugar al videojuego Pong.
Su director científico, Brett Kagan, no oculta su inquietud: si alguno de estos mini cerebros llegara a desarrollar conciencia, ¿cómo nos aseguraríamos de que sus intereses estén alineados con los nuestros?
Aunque por ahora son sistemas primitivos, la sola posibilidad de que emerja alguna forma de conciencia orgánica plantea preguntas bioéticas profundas. ¿Deberíamos otorgarles derechos? ¿Podrían sufrir? ¿Qué sucedería si se revelarán?
“La ilusión de la conciencia”
Pero más preocupante aún que la conciencia real, es la ilusión de conciencia.
Según Anil Seth, lo más peligroso no es que las máquinas sean conscientes, sino que parezcan serlo.
Porque eso basta para que los humanos, que estamos programados para detectar intenciones y emociones, empecemos a tratarlas como personas.
La consecuencia no es trivial.
Si los usuarios creen que una IA siente, podrían compartir con ella información íntima, tomar decisiones basadas en sus recomendaciones o incluso desarrollar vínculos emocionales profundos.
En palabras del profesor Shanahan, “las relaciones humanas empezarán a replicarse en las relaciones con la IA: maestros, amigos, parejas románticas”.
Y eso podría alterar el tejido moral de nuestra sociedad.
Como advierte Seth, podríamos acabar dedicando más atención y compasión a las máquinas que a las personas reales. La ética se volvería líquida, y nuestras prioridades emocionales, también.
En conclusión
El debate sobre la conciencia artificial ya no es un juego de filósofos o guionistas de Hollywood.
Científicos de renombre y empresas tecnológicas lo están discutiendo con seriedad, mientras las capacidades de la IA avanzan a un ritmo vertiginoso.
¿Estamos ante una nueva forma de vida? ¿O simplemente proyectamos sobre las máquinas lo que anhelamos encontrar? La respuesta, todavía incierta, definirá buena parte de nuestro futuro como especie.
Referencias
- Seth, A. (2021). Being You: A New Science of Consciousness. Faber & Faber.
- Chalmers, D. (1995). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.
- BBC Mundo. (2025). ¿La conciencia de la IA ya está aquí? Disponible en: https://www.bbc.com/mundo/articles/cy90nrdjnlpo
- BBC News. (2025). Expertos creen que la IA podría haber desarrollado conciencia. Declaraciones recogidas por la BBC a investigadores de DeepMind, Anthropic y la Universidad de Sussex.
- The New York Times. (2024). Entrevista con Kyle Fish, director de bienestar en Anthropic.
- Shanahan, M. (2023). Comentarios sobre la opacidad de los modelos de lenguaje y la conciencia artificial. Google DeepMind e Imperial College London.
- Cortical Labs. (2024). Informes técnicos sobre organoides neuronales y sistemas híbridos bio-digitales.