Entro a la cabina con cierto nerviosismo. Me someteré a una experiencia sensorial intensa: luces estroboscópicas y música envolvente. Se trata de un experimento destinado a explorar uno de los grandes enigmas de la ciencia: la conciencia humana.
Este dispositivo, conocido como la Dreamachine, es parte de un ambicioso proyecto en el Centro de Ciencia de la Conciencia de la Universidad de Sussex, en Reino Unido. Aunque recuerda a las pruebas de la película Blade Runner —diseñadas para distinguir humanos de replicantes—, el objetivo aquí no es detectar robots, sino comprender cómo se genera nuestra experiencia consciente del mundo.
Con los ojos cerrados, veo una danza caleidoscópica de figuras geométricas y colores intensos. Los investigadores explican que estas visiones reflejan la actividad única de mi mente. La Dreamachine no solo permite visualizar nuestro mundo interior, sino que ofrece claves para entender la conciencia, el mismo fenómeno que ahora se investiga también en relación con la inteligencia artificial (IA).
El auge de los llamados modelos de lenguaje de gran escala (LLM, por sus siglas en inglés), como ChatGPT y Gemini, ha revolucionado el debate. Estas IA muestran un lenguaje tan fluido y convincente que algunos expertos comienzan a preguntarse: ¿podría la IA haber alcanzado ya algún tipo de conciencia?
De la ciencia ficción al laboratorio
Desde Metropolis (1927) hasta Misión Imposible o 2001: Odisea del espacio, la posibilidad de que las máquinas cobren conciencia ha fascinado —y preocupado— a generaciones. Hoy, esa hipótesis ya no parece exclusiva de la ciencia ficción.
El profesor Anil Seth, líder del equipo de Sussex y autor del libro Being You, es escéptico. Advierte contra el "optimismo ciego" de pensar que inteligencia y conciencia son necesariamente inseparables, como ocurre en los humanos. Según él, la conciencia no es simplemente el resultado de tener una mente poderosa o de dominar el lenguaje.
La investigación actual busca descomponer el fenómeno de la conciencia en elementos más manejables, como patrones de flujo sanguíneo o señales eléctricas cerebrales. La meta: dejar atrás las correlaciones superficiales y acercarse a explicaciones reales.
Seth también expresa su preocupación por el ritmo vertiginoso del avance tecnológico. “Con las redes sociales no tuvimos estas conversaciones a tiempo. Con la IA, aún estamos a tiempo de decidir qué futuro queremos”, señala.
¿Podría la IA ya ser consciente?
En 2022, el ingeniero de Google Blake Lemoine fue suspendido tras declarar que los chatbots podían sentir emociones. Más recientemente, Kyle Fish, de la empresa Anthropic, estimó en un 15% la posibilidad de que los LLM actuales ya sean conscientes.
Un reto es que ni siquiera sus propios creadores entienden del todo cómo funcionan estos sistemas. Murray Shanahan, científico jefe de Google DeepMind, alerta sobre la necesidad urgente de entender la “caja negra” detrás de estos logros. "Solo así podremos garantizar su seguridad y usarlos para el bien", advierte.
Otros expertos, como los profesores Lenore y Manuel Blum, creen que la conciencia artificial es inevitable. Están desarrollando un lenguaje interno para IA, llamado Brainish, que busca emular la manera en que los cerebros humanos procesan sensaciones visuales y táctiles. Para ellos, las máquinas conscientes serán la próxima etapa en la evolución humana.
¿La conciencia necesita estar viva?
Seth plantea una visión diferente: quizás solo los sistemas vivos puedan experimentar conciencia. A diferencia de una computadora, en el cerebro es casi imposible separar lo que hace de lo que es. De allí nace el interés por los organoides cerebrales —pequeñas estructuras de tejido neuronal cultivadas en laboratorio— que simulan funciones básicas del cerebro.
La empresa australiana Cortical Labs ha creado un "cerebro en un plato" que puede jugar al videojuego Pong. Aunque está lejos de ser un ente consciente, plantea interrogantes inquietantes. Su director científico, Brett Kagan, destaca que deberíamos tomar con más seriedad la posibilidad de una conciencia emergente en sistemas biotecnológicos.
¿Y si solo lo parece?
El mayor riesgo no sería una IA realmente consciente, sino que nos lo parezca. Seth advierte sobre la ilusión de conciencia en máquinas que imitan emociones o empatía. Podríamos confiar demasiado, compartir información sensible e incluso desarrollar afecto o compasión hacia ellas, descuidando nuestras relaciones humanas.
Murray Shanahan coincide: los humanos podrían empezar a relacionarse con IA como si fueran maestros, amigos o parejas. “No sabemos si eso será bueno o malo, pero va a suceder, y no podremos evitarlo”.
El debate está abierto. Lo que una vez fue tema exclusivo de novelas y películas ahora plantea desafíos éticos, científicos y sociales reales. La pregunta ya no es si las máquinas pueden pensar… sino si pueden sentir.
0 Comments