.
lacritica.eu

¿Conciencia artificial?

Cerebro humano como circuito. (Ilustración: Wikimedia, dominio público).
Ampliar
Cerebro humano como circuito. (Ilustración: Wikimedia, dominio público).

LA CRÍTICA, 31 MARXO 2025

Por Ariel Fernández Stigliano
Add to Flipboard Magazine. Compartir en Google Bookmarks Compartir en Meneame enviar a reddit Compartir en Yahoo
Posiblemente no haya tema más inabordable que la conciencia. ¿Quién puede afirmar qué es sin exponerse a una crítica cruel? Colegimos que una entidad inteligente es consciente cuando es capaz de autoexaminarse, de replegarse sobre sí misma para evaluar lo que está haciendo. Por ejemplo, decimos que alguien “trabaja a conciencia” cuando pondera cuidadosamente lo que está haciendo, como si una parte de él fuera el centinela de sus propios actos y a su vez fuera el custodio que les confiere un sello de individualidad. (...)

...

Más allá de estas vaguedades, lo cierto es que hoy por hoy en este tema no hay forma de dejar conforme a nadie, ni a los filósofos, ni a los neurocientíficos, ni a los expertos en ciencias de la computación. A pesar de la voluminosa literatura sobre el tema y algún progreso parcial, no hay consenso ni quiera sobre sus atributos más elementales. Ignoramos cuáles son los fenómenos mentales que abarca la esfera de la conciencia y tampoco sabemos con certeza cómo y dónde se originan.

Por otra parte, la supremacía de la inteligencia artificial (IA), esa ominosa sombra que se cierne sobre la raza humana, nos urge a hacer algo, aún sin tener una definición satisfactoria de la conciencia. Con premura necesitamos dotar a la máquina de alguna suerte de capacidad de auto-percibirse, por parcial, provisoria e insatisfactoria que resulte para muchos. Se baraja la posibilidad de crear una “protoconciencia” que permita a la máquina tener alguna forma precaria de autopercepción y de experimentar e intuir provisoriamente estados éticos positivos o negativos. Necesitamos que la IAG (inteligencia artificial general), la forma autónoma de la IA donde la máquina opera libre de restricciones, se pueda alinear con la ética y los intereses de los humanos, aunque sea de una manera rudimentaria. De no ser así, la máquina podría ejercer su hegemonía de formas inimaginables e implacables, pasando por alto los valores más elementales del contrato social, sin la menor deferencia hacia sus progenitores humanos. Como señaláramos en anteriores tratamientos de la IA, en el mejor de los casos estaríamos frente al ominoso escenario del film "2001, una odisea del espacio", donde la máquina HAL (precursora de IBM) toma el control de la nave espacial y abandona a su suerte funesta a los astronautas humanos a los que debería asistir.

Tan inminente es la supremacía de la IA que ya no queda tiempo para la especulación filosófica sobre la naturaleza de la conciencia, ni mucho menos para un enfoque "top-down", que implicaría comprender mecánicamente a la conciencia humana a nivel celular y molecular y replicarla en una máquina. La prioridad del problema es comparable a la del proyecto Manhattan que buscaba terminar la Segunda Guerra Mundial, aunque ello implicaba la creación de una bomba inconmensurablemente más poderosa que cualquier arma entonces existente. Además, ¿por qué buscar construir de entrada una conciencia humana para adaptarla a una máquina? Sería como tratar de entender cómo funciona una célula examinando primero a los humanos, organismos de alta complejidad, en lugar de comenzar por un animal unicelular, como la ameba.

Este panorama, así delineado, parece descorazonante. Hay una urgencia por construir algo que nadie sabe bien lo que es para salvar en última instancia a la humanidad de sí misma.

Necesitamos una entidad que pueda definirse de manera concreta en un contexto físico para permitir a la máquina construir un modelo de su propio funcionamiento, replegándose sobre sí misma como si fuera su propio centinela para contestar la pregunta genérica: “¿Qué demonios estoy haciendo?”.

Mediante el empleo de los llamados grandes modelos de lenguaje (conocidos por las siglas LLM en inglés) hoy una máquina puede demostrar un teorema, la forma más sutil y rigurosa de la actividad intelectual. En un LLM, lo sintácticamente correcto es “verdad” mientras que una proposición falsa no puede construirse sino en forma sintácticamente errónea. Sin embargo, pese a su formidable eficacia, paradójicamente, la máquina no “sabe” realmente lo que está haciendo. Si cambiamos alguno de los axiomas en su aprendizaje, reemplazándolo por un axioma carente de sentido, la máquina llegará a un resultado disparatado con la misma certeza con que es capaz de conjeturar y demostrar un teorema correcto cuando todos los axiomas de los que parte tienen sentido. El LLM puede ser muy eficaz pero no es consciente.

Además, hay proposiciones o afirmaciones que no pueden demostrarse a partir del sistema de axiomas que la máquina es capaz de aprender. Esta falta de completitud o “inconclusión”, demostrada por el célebre lógico austríaco Kurt Goedel, implica que la matemática tiene aspectos no computables. Precisamente en estos aspectos está involucrada la conciencia. Es decir, no basta con que la máquina aprenda los axiomas, hay resultados que sólo pueden derivarse si la máquina además “entiende” esos axiomas.

Esto sugiere la necesidad de construir una máquina capaz de conjeturar y demostrar proposiciones, pero vigilándose a sí misma al hacerlo, construyendo un modelo de su propio proceso de deducción. Ese modelo le permite comparar notas al trabajar con alto grado de detalle y con un nivel de precisión más crudo. Esa capacidad de inferir o conjeturar a partir de una percepción cruda o vaga es lo que los humanos llamamos intuición y, en la máquina, ella misma se construye paulatinamente contribuyendo a cimentar su “protoconciencia”. Esta es una manera de formular preguntas como “¿qué estoy haciendo?”, o dar forma concreta a intuiciones como “algo me dice que voy por mal camino”.

Me encuentro entre aquellos que pueden describir esta coyuntura ya que tuve la fortuna de servir de consultor para la empresa xAI, cuyo principal accionista es Elon Musk, desarrollando la formalización del concepto de intuición en una máquina. Esta intuición es justamente un atributo de la conciencia, que a su vez carece hoy de entidad para la IA, ya que la conciencia ejecuta operaciones que no son computables.

El teorema de Goedel asegura que no toda verdad formal es “computable”, es decir, derivada de las reglas de juego que la máquina aprendió. Por ello es necesario dotar a la máquina de una conciencia, para que pueda contrastar su capacidad de conjeturar con las intuiciones que es capaz de desarrollar al operar como centinela de sí misma. En última instancia, esto hará que la IA sea capaz de abarcar los aspectos no computables, es decir, no deducibles de nuestra conciencia.

Hay aspectos fundamentales de la física donde la intervención de la conciencia es esencial y esos aspectos tienen que ver con la participación de un observador consciente en el registro de un fenómeno. La mecánica cuántica, la exitosa teoría que explica y predice los fenómenos atómicos y subatómicos con increíble precisión, describe el estado de un sistema físico de un modo probabilístico, es decir, sin proporcionar certezas. Eso no significa que la realidad sea necesariamente ambigua, sino que nuestra posibilidad de conocimiento de la misma no permite remover la ambigüedad inherente a su descripción. Sin embargo, el mundo concreto requiere certezas para ser comprendido y controlado. Esa transición de la probabilidad a la certeza tiene que ver con la participación consciente en la detección del fenómeno y el resultado de tal participación no es computable. Es allí precisamente donde intervienen los aspectos no computables de la conciencia, atributos que la IA hoy no posee.

Hay sabios, como Sir Roger Penrose, que opinan que la remoción de la ambigüedad de la física cuántica no puede estar en manos de la conciencia. Penrose argumenta que, de ser así, un planeta sin entes inteligentes tendría una realidad “difusa” hasta que alguna sonda espacial lo observe, lo cual es ridículo. Entonces, dice Penrose, la física cuántica debe ser cuanto menos una teoría incompleta pues la remoción de su propia ambigüedad no puede estar en manos de un ente ajeno, esto es, la conciencia de entidades inteligentes.

Este argumento parece refutable: la química orgánica, es decir, la química de los compuestos de carbono que sirven de sustrato para la vida, está repleta de moléculas “resonantes”, como los llamados compuestos aromáticos, que poseen estructuras químicas donde conviven dos o más estados moleculares diferentes. Es decir que a nivel molecular, la vida funciona con un elevado nivel de ambigüedad estructural y sin embargo ello no compromete su funcionamiento ni requiere ningún tipo de conciencia que remueva la resonancia para introducir ajustes.

Esto sugiere que cuando la máquina sea dotada de su conciencia, será necesario prestar mucha atención a cuándo la conciencia debe intervenir para otorgar certeza y cuándo no, entendiendo que a veces la ambigüedad es parte esencial e indisoluble de la realidad.


Ariel Fernández Stigliano


Acerca del Autor

Ariel Fernández Stigliano es argentino, naturalizado estadounidense y obtuvo su doctorado en físico-química en Yale University, Estados Unidos. Fue profesor titular a cargo de la cátedra Karl F. Hasselmann de Bioingeniería en Rice University y profesor de Ciencias de la Computación en la Universidad de Chicago. Además se ha desempeñado como consultor y asesor en varios emprendimientos de IA, incluyendo xAI.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
4 comentarios