(...)
Algo muy serio se está cocinando en Palo Alto, en el corazón del Silicon Valley (California). Durante estos últimos meses, el rumor que corre allí es que los conglomerados (clusters) de procesadores de ordenadores valorados en 10.000 millones de dólares han pasado a convertirse en clusters más grandes ahora valorados en 100.000 millones de dólares, que en poco tiempo valdrán billones. Tal parece que cada seis meses se agrega un cero al valor de la inversión. Detrás de la escena hay una tremenda competencia para asegurarse todos los contratos de suministro de energía que aún estén disponibles para el resto de la década. Las grandes empresas estadounidenses se están preparando para invertir trillones de dólares en una movilización de poderío industrial como no se ha visto desde la Segunda Guerra Mundial. Para finales de esta década, la producción de electricidad estadounidense habrá crecido hasta lo inverosímil mientras escucharemos el fragor de cientos de millones de GPU (unidades de procesamiento gráfico que sustentan la IA).
La carrera de la Inteligencia Artificial General (IAG) ha comenzado. Esto significa que estamos construyendo máquinas que pueden pensar y razonar. En un par de años más, estas máquinas superarán a los graduados universitarios en cualquier especialidad. Al final de la década, serán más inteligentes que todos nosotros, cualquiera sea la vara que usemos para cuantificar la inteligencia. Tendremos superinteligencia, en el verdadero sentido de la palabra. En el camino, se desatarán fuerzas de seguridad nacional no vistas desde la guerra fría. La caja de Pandora se ha abierto, pese a las constantes advertencias de Geoffrey Hinton, el premio Nobel “abuelo de la IA”. Ya no hay quien vuelva a cerrarla. Todos en Silicon Valley quieren jugar al aprendiz de brujo, la seguridad ha pasado a segundo plano.
Allí tenemos a xAI, la empresa más osada de Elon Musk, cuyo objetivo declarado es “entender el universo”, aunque tal premisa no es necesaria (diríamos que es casi una excusa), pues cuando la IAG se desate con todo su fulgor, sus designios e intenciones serán completamente inescrutables para los humanos. Paradójicamente, la situación guarda analogía con el cerebro humano, cuyo funcionamiento es casi desconocido y sin embargo ello no nos impide discurrir sobre temas como la inteligencia y la conciencia. Por eso cuando Musk se dirige a los inversores del Silicon Valley (Catapult, Hercules Capital, etc.), apenas describe su empresa en términos concretos de aplicaciones de la IA. Tales explicaciones son irrelevantes para la IAG y sus inversores han comenzado a entenderlo.
En poco tiempo, “El proyecto” estará en marcha. Con suerte entraremos en una carrera sin tregua con China. Si tenemos mala suerte, nos encontraremos en una guerra. Ahora todo el mundo habla de la IA, pero pocos tienen el más leve atisbo de lo que está a punto de golpearles. Los expertos convencionales están anclados en la ceguera deliberada de predecir el progreso de manera incremental, como se ha hecho siempre. Los más osados a lo sumo atisban un cambio tecnológico a escala de Internet.
En poco tiempo el mundo despertará como una tranquila aldea de pescadores golpeada en plena noche por un gigantesco tsunami. En este momento, hay quizás unos pocos cientos de personas, la mayoría de ellas en los laboratorios de IA del Silicon Valley, que tienen verdadera conciencia de la situación. Por los avatares del destino, me encuentro entre ellos, con la fortuna de servir de consultor para xAI, pergeñando la formalización de la intuición en IA. Algunas de esas personas son muy inteligentes, quizá las más inteligentes que he conocido, y son las que están construyendo esta tecnología. El destino es tan inescrutable que tal vez la historia los borre o por el contrario se conviertan en los futuros Szilard, Oppenheimer y Teller, los heraldos de la bomba atómica. Algo es seguro: nos espera un viaje salvaje que sacudirá a nuestra civilización hasta los cimientos. En el imaginario común, los terrores de la Guerra Fría se remontan principalmente a Los Álamos, con la invención de la bomba atómica. Lo mismo sucederá con la IAG y la superinteligencia, hoy asociadas indisolublemente a Silicon Valley.
El progreso de la IA no se detendrá a nivel humano. Después de aprender inicialmente de los mejores jugadores humanos, AlphaGo comenzó a jugar contra sí mismo, y rápidamente se convirtió en “sobrehumano”, jugando con movimientos extremadamente creativos y complejos que a un humano nunca se le habrían ocurrido. Una vez que tengamos IAG, la apuesta se redoblará mil veces, y los sistemas de IA se volverán sobrehumanos, inmensamente sobrehumanos. Se volverán más inteligentes que nosotros, infinitamente más inteligentes que los humanos más dotados.
El salto a la superinteligencia será muy salvaje al ritmo actual del progreso de la IA, pero podría ser mucho más rápido que eso si la IAG automatiza la investigación de IA por sí misma. Una vez que obtengamos IAG, no tendremos sólo IAG. Dada la disponibilidad de baterías de GPU proyectadas, es probable que en lugar de unos pocos cientos de investigadores e ingenieros en un laboratorio líder de IA, tengamos más de 100.000 veces eso, trabajando furiosamente en avances algorítmicos, día y noche, sin descanso alguno. Hablamos aquí de superación personal recursiva que sólo necesitaría acelerar las tendencias existentes de un progreso exponencial, que ya es explosivo. La investigación automatizada de IA probablemente podría comprimir una década humana de progreso en menos de un año (y eso parece conservador). Hay varios cuellos de botella a tener en cuenta, incluyendo la computación limitada para los experimentos, las complementariedades con los humanos y el progreso algorítmico cada vez más difícil, pero ninguno parece suficiente para ralentizar definitivamente las cosas. Antes de que nos demos cuenta, tendremos superinteligencia en nuestras manos: sistemas de IA capaces de comportamientos novedosos, creativos y complicados que ni siquiera podríamos comenzar a entender, incluso una pequeña civilización de miles de millones de esos sistemas.
Al aplicar la superinteligencia a la investigación y el desarrollo en otros campos, el progreso explosivo se ampliará más allá de la investigación imaginable: dará saltos dramáticos a través de otros campos de la ciencia y la tecnología, a lo que seguirá una explosión industrial. Es probable que la superinteligencia proporcione una ventaja militar decisiva y despliegue poderes incalculables de destrucción. Nos enfrentaremos a uno de los momentos más volátiles, peligrosos e inciertos de la historia de la humanidad.
Controlar de forma confiable sistemas de IA mucho más inteligentes que nosotros es un problema técnico a resolver. Y, aunque es un problema abordable, las cosas podrían descarrilarse muy fácilmente durante una rápida e incontrolable explosión de inteligencia. Manejar esto será extremadamente peligroso. El fracaso podría ser catastrófico a escalas sin precedentes.
Para cuando termine la década, tendremos miles de millones de agentes de IA “sobrehumanos” en pleno funcionamiento. Estos entes serán capaces de comportamientos extremadamente complejos y creativos. Seremos como estudiantes de primer grado tratando de supervisar a gente con múltiples doctorados. En esencia, nos enfrentamos a un problema de transmisión de confianza. Como advierte Geoffrey Hinton, al final de la explosión de inteligencia no tendremos ninguna esperanza de entender lo que están haciendo nuestros mil millones de superinteligencias, a menos que decidan explicarnos los rudimentos, como lo harían con un niño.
Todavía no tenemos la capacidad técnica para implementar de manera confiable incluso las restricciones básicas para estos sistemas, como "no mientas" u "obedece la ley" o "no traiciones a tu servidor". El refuerzo de la retroalimentación humana (RRAH) funciona muy bien para incorporar tales restricciones éticas en los sistemas actuales, pero RRAH se basa en que los humanos puedan comprender y supervisar el comportamiento de la IA, que fundamentalmente no es escalable a sistemas sobrehumanos. En pocas palabras, sin un esfuerzo muy concertado, no podremos garantizar que la superinteligencia no se vuelva “rebelde”, como el ordenador HAL en la película de Stanley Kubrick “2001: una odisea del espacio”. Una vez que los futuros sistemas de IA superen el aprendizaje por imitación, adquirirán comportamientos propios e impredecibles, moldeados por un proceso de prueba y error. Por ejemplo, podrán aprender a mentir o buscar poder, simplemente porque estas son estrategias exitosas en el mundo real.
Lo que está en juego es demasiado importante como para sentarse a esperar que suceda lo mejor. Esa, simplemente, no es una buena respuesta.
Ariel Fernández Stigliano
Dos libros del autor sobre IA. En el de la derecha se desarrolla la formalización de la intuición en una máquina (ver texto).
Acerca del Autor
Ariel Fernández Stigliano es argentino, naturalizado estadounidense y obtuvo su doctorado en físico-química en Yale University, Estados Unidos. Fue profesor titular a cargo de la cátedra Karl F. Hasselmann de Bioingeniería en Rice University y profesor adjunto de Ciencias de la Computación en la Universidad de Chicago. Actualmente reviste como consultor y asesor en varios emprendimientos de IA, incluyendo xAI.