La pregunta inicial era qué demonios se puede escribir sobre el estado actual de la Inteligencia Artificial que no se haya dicho ya.
Bajando antes de Navidad por la calle Génova, algo que escuché por los auriculares me dejó tieso, en el sitio, como cuando sumerges una croqueta en aceite hirviendo. Tuve que poner pies en alcorque y apoyarme en un árbol. Era viernes por la tarde y andaba yo escuchando el podcast del debate semanal de Itnig: unos exitosos empresarios tecnológicos barceloneses que están siempre al quite del mundo del software, que se hacen las preguntas correctas y que —en este formato de tertulia semanal—, invitan casi siempre a gente interesante de verdad, y casi nunca a lunáticos de Linkedin.
En esta ocasión comparecía Guillermo Barbadillo, un experto nivel mundial en investigación en Inteligencia Artificial que venía de quedar tercero en ARC. Este certamen ARC es una suerte de campeonato internacional en el que los mejores investigadores acuden con sus modelos, como si fueran perretes de campeonato, y tienen un determinado tiempo para que aprendan a resolver problemas visuales más o menos complejos. Una pasada. Pero el momento que me dejó tieso como autónomo tras pagar el IVA, fue (minuto 13) cuando Bernat Farrero —50% de Itnig y amante de las preguntas abstractas—, le sugiere a Guillermo que si, al utilizar una estrategia llamada aprendizaje por refuerzo*, no existe un riesgo de perder el control del bicho. «No, a ver, eso tú lo controlas con el objetivo que le marcas…» Acierta a responder el investigador. Silencio ominoso.
En una frase que leí en un libro de David Graeber, Buzz Aldrin, segundo hombre en brincar por la luna, le decía a la revista del MIT: Me prometisteis colonias en Marte pero, en cambio, me disteis Facebook. Ahora, este demoledor reproche puede que empiece a tener una solución. Facebook era un paso intermedio. El objetivo que le marcas a la IA puede que sea mudarnos a Marte, y que lo hayan decidido unos más o menos siniestros personajes por nosotros.
Pero vamos a recapitular un poco todo este sindiós.

Un robo para gobernarlos a todos
Aunque la teoría e investigación sobre los LLMs (Large Language Models) se remonta a los años 90 e IBM, fue un paper de 2017, Attention Is All You Need, el que se considera fundacional de los productos actuales. Esta publicación desató una loca carrera por entrenar modelos tochos de verdad. La competición fue tan rápida que casi nadie la vio venir y permitió que las maquinarias de Open AI hicieran algo inédito y que seguro dará más que hablar estos años. Scrappearon (es decir, leyeron y almacenaron de manera automática) una proporción enorme de todo internet, parece ser que usando entre otros Common Crawl, quienes dicen indexar más 250.000 millones de páginas web.
La metáfora que se me ocurre es la de dejar entrar en la biblioteca de Alejandría a un investigador con una pequeña mochila. No te compensa vigilar a esta persona, porque como mucho se va a llevar 4 o 5 libros de entre los millones que hay. El problema es que Sam Altman (CEO de OpenAI) y amigotes habían inventado una especie de mochila Doraemon en la que metieron todos los libros, toda la Open Web, toda la wikipedia escrita por voluntarios y gente de buena fe —en definitiva—, lo robaron todo porque no sabíamos que se lo podían llevar todo**. A partir de ese robo, en palabras de Ted Chiang, generan una foto promedio de todo lo que han aprendido y cobran ingentes cantidades de dinero por ello.
En paralelo, pasó lo inevitable. Cuando los Open AI folks se dieron cuenta de que lo que estaban construyendo era potencialmente transformador de la sociedad entera, desató en su casa un tremendo juego de tronos. Por un lado, pasaron de ser una non profit a una for mucho profit, en un movimiento sibilino que mandó directo a Sam Altman al concesionario de coches deportivos y a Elon Musk a denunciarlos en los tribunales. Porque —ahora viene lo bueno—, Elon Musk era inversor inicial y parte del consejo de Open AI; hasta que lo echaron. Lo bueno —y extrañamente no tan conocido— es que la denuncia permitió que se filtrasen los alucinantes mails que intercambiaron los líderes de Open AI y un Elon que no cesaba de pedir más control en la compañía. En un momento dado Ilya Sutskever, cofundador de la empresa, se dirige a Elon en estos impactantes términos:
We really want to work with you (...)
But we realized that we were careless in our thinking about the implications of control for the world (...)
The goal of OpenAI is to make the future good and to avoid an AGI dictatorship. You are concerned that Demis could create an AGI dictatorship. So do we. So it is a bad idea to create a structure where you could become a dictator if you chose to, especially given that we can create some other structure that avoids this possibility.
Pero, ¿qué demonios quieren estos chalados decir con evitar la dictadura AGI? Pues a lo que se refieren es a la posibilidad teórica de que un modelo deje de ser una caja tonta que responde por la fuerza bruta de la estadística y pase a razonar por sí misma y a exceder la inteligencia humana promedio. Y lo que inmediatamente después intuyen es la terrorífica posibilidad de la aparición de una conciencia artificial, y su plausible consecuencia de ser capaz de dominar el mundo mediante el dominio de esta nueva y esotérica fuerza, la AGI (Artificial General Intelligence)
No sabemos si esta gente exageraba en 2018 o, como tecnólogos futuristas, jugaban con la ínfima posibilidad de que este retorno masivo pudiera tener lugar. Sea como sea, Sam Altman está, actualmente, diciendo barrabasadas heladoras de la sangre de este estilo:
El casting de los supervillanos
Sentadas las bases de ese fantasma del súper dictador AGI, es momento de repasar a los otros aspirantes, además de Altman, al trono de bits.
Hemos dejado al pobre Elon Musk siendo expulsado de Open AI. Pero no os preocupéis, porque a principios de 2022 se rehace lanzando cohetes puntiagudos y comprando twitter. Vuelve a recuperar terreno en la carrera. Ya sabéis: echa al 80% de los trabajadores, le cambia el nombre por X, quita la moderación…todo mal, salvo quizá la funcionalidad de las community notes, algo tan útil que ha establecido un nuevo paradigma en el sector. Mientras tanto Grok, la IA que ha implantado de manera nativa en X, se especializa en bromas basadas y sentido del humor grueso.
Lo cierto es que el Musk-personaje —aunque hagamos a veces la vista gorda, disculpándolo como asperger o adolescente eterno—-, lleva tiempo dando bastante miedo. Pensadlo en frío: es como Iron Man pero sin gracia y con evidentes problemas para reconocer las emociones humanas y para ejecutar la técnica del salto. El personaje de cómic más terrorífico que hayamos conocido. Un tipo que está poniendo conexiones a internet por satélite en países en vías de desarrollo de manera gratuita, lo cual le otorga —de facto— un botón para apagar países enteros, como pasó en Ucrania. Pues este tipo es ahora la mano derecha del presidente de Estados Unidos. No se podría imaginar una trama más James Bond que esto que está pasando antes nuestros ojos.

Pero, además, si se desciende al terreno de su personalidad, está más que documentado que es un completo lunático y que hace cosas que solo el más retorcido de los pajilleros adolescentes soñaría con atreverse a llevar a cabo, tales como pagar a jugadores expertos de videojuegos para utilizar su cuenta y así fingir ser un campeón mundial de Diablo IV. Bien, pues alguien que hace este tipo de cosas —o una broma bochornosa al comprar twitter, o no entender que el saludo a la romana no es para frivolizar— es quizá la persona más influyente del mundo. ¿Eran tan poderosos Gates, Soros y demás, antes del pendulazo ideológico en EEUU? Nunca lo sabremos, pero lo innegable es que por lo menos estaban en la sombra, no actuando a cara descubierta y a golpe de bromitas basadas, utilizando sin rubor el otrora digno meme para desnaturalizar o borrar las fronteras del significado de lo que realmente hacen.
Lo peor es que Elonmóh ha sido imitado por otros oportunistas de Silicon Valley, como el siniestro y anfibio Zuckerberg o el chulesco Bezos. En un ahora olvidado artículo, Los algoritmos no llevan bigote (solo lo encontré en este blog, al final tenéis la foto del artículo), el escritor y rockstar Frédéric Beigbeder levantó una humareda considerable al tachar a los creadores de este tipo de software como nerd gafotas, seres con pánico a la sociedad y al sexo y en los que, por tanto, no confiaba para guiar al mundo. Ahora nos preguntamos si quizá era mejor aquella exagerada caricatura del friki o esta digievolución que aúna lo peor de una adolescencia eterna y una crisis de masculinidad a los cuarenta. Toda la pseudo ideología californiana ha funcionado siempre así: mezclando ingredientes inmiscibles. Como escribía Miguel Gómez Garrido en sustrato: Esta pubertad mental les ha permitido transitar desde un cierto idealismo nerd al malotismo despótico sin que les quite el sueño.
El nuevo proyecto Manhattan: Stargate
El nuevo panorama comenzó a aclararse después de la toma de posesión de Donald Trump como presidente. Allí comparecieron, claro, todos los aspirantes a supervillano, regalando memes y saludos pseudofascistas.

A los pocos días, se presentó el proyecto Stargate, una joint venture auspiciada por Trump que reúne a OpenAI (modelos), Softbank (dineros) y Oracle (infraestructura) y un total de 500.000 millones de dólares hasta 2029. Aunque Elon llorara por la presencia de su archienemigo Sam Altman, el resto de los gurús californiatas dieron palmas sobre el diseño de la iniciativa. Desde su concepción, recuerda muchísimo al proyecto Manhattan: tecnología punta, proteccionismo, futuro incierto.
En Maniac (Benjamín Labatut, 2023), se narra como John Von Neumann innovó en el proceso de fabricación de la bomba de hidrógeno, al disponer a un grupo de finísimas matemáticas calculando en paralelo operaciones especializadas (unas sumaban, otras multiplicaban, etc,...) lo cual ahorró ingente tiempo y costes y le inspiró para diseñar la arquitectura que utilizan todos los ordenadores hasta el día hoy.
El paralelismo con lo que podría conseguir una IA (no digamos la AGI) en estas situaciones es más que evidente. Por eso la aparición de Deepseek (modelo chino, en teoría 30 veces más barato de entrenar, código abierto) ha multiplicado las comparaciones. El inversor y gurú aceleracionista Marc Andreesen tuiteó al momento: esto es como el lanzamiento del Sputnik. Y eso obliga a preguntarse: ¿es el proyecto Stargate más como el Manhattan (agresión) o como la carrera Espacial (sólo prestigio)?
Sea como sea, el dibujo de esta apuesta aceleracionista está cada vez más claro. El plan es meter gas hacia el precipicio quemando energía como locos en la IA y, mientras tanto, esperar que nuestra AGI solucione su propio consumo antes de diezmar el planeta o estropear el clima por completo. O construir el reactor de fusión por el camino. Si todo esto falla, seguro que Elon piensa que la AGI nos podría ayudar a mudarnos a Marte. La última opción para imaginar el tipo de ideas que nos recomendaría la máquina es fijarnos en la persona más cercana a una AGI que hayamos conocido, John Von Neumann. Lo que él recetó para la humanidad fue armarnos hasta los dientes con bombas nucleares hasta garantizar la destrucción mutua asegurada y que, de esta manera, no nos atreviéramos a asumir el coste de empezar una guerra a gran escala. 80 años sin guerras mundiales avalan esta inhumana teoría.
Tendemos a olvidarnos del problema ético del lanzamiento de la bomba atómica y de cómo, de manera utilitaria, resulta fácil justificar la intervención en el transcurso de las cosas sacrificando un mal menor (derechos humanos, minorías, unos cientos de miles de civiles japoneses) en pos de un bien mayor. Si a la IA le dices que optimice las vidas humanas, siempre apretaría la palanca en el dilema del tranvía. ¿Hubiera opinado la IA como los generales del ejército americano en 1945? Cabe imaginar que sí. Son, ciertamente, el tipo de ideas Isaacasimovianas que se nos pueden venir encima si nos despistamos.
Éramos incapaces de imaginar el futuro post Facebook, pero la propuesta oficial ya está aquí. Una alianza megalómana para acelerar hacia lo desconocido con los dedos cruzados, formada por ultra ricos adolescentes perennes y un también millonario Presidente con ansias de trascendencia. Todos tienen una cosa en común: ven la realidad — y la realidad en este caso es el futuro de la humanidad— como una apuesta empresarial. Todo o nada.
Migajas del futuro
Mientras estas oscurísimas iniciativas tienen lugar, es muy simpático ver cómo el resto de técnicos y ciudadanos nos divertimos con las migajas de los LLMs. Memes, videos, informes de mierda que nadie lee respondidos con sendos mail o informes de mierda que nadie lee tampoco… somos como monetes jugando con petardos sobrantes de la investigación de la bomba atómica. Viendo el agujero en vez del donut.
Mientras averiguamos qué están tramando y quién sale victorioso en el casting de supervillanos, convendría no distraerse con memes, saludos a la romana y demás cortinas de humo. Porque, dada nuestra incapacidad para imaginar el futuro, corremos el riesgo de que se imponga este aceleracionismo tecnoptimista —a partir de ahora ideología oficial del gobierno de Estados Unidos— como único relato posible, y que así se cumpla su propia profecía. Volviendo a aquel ingeniero en Itnig, quizá es hora de ir planteándonos qué pedirle a la IA que haga por nosotros, de construir una alternativa a la narrativa que nos están vendiendo.
---
*Sin yo tener ni idea, parece que en el paper de Deepseek ya explican que estas técnicas de aprendizaje por refuerzo, vanguardistas hace tan solo unos meses, han sido utilizadas para entrenar este modelo, consiguiendo ese aumento de eficiencia y abaratamiento de los costes de computación.
** Ahora el New York Times y otras instituciones saqueadas están pidiendo calderilla por el contenido que les han robado y les vayan a robar en lo sucesivo.