“En el futuro, la vida de todo el mundo puede ser mejor de lo que es ahora”, escribió Sam Altman, líder de OpenAI, en una entrada de su blog en septiembre. Es una afirmación sorprendente por parte de un CEO de 39 años que, según los rumores, va a adquirir una participación del 7% en una empresa valorada en 157.000 millones de dólares. Altman insiste en que la inteligencia artificial (IA) pronto superará las capacidades mentales de la mayoría de las personas. Después, prevé que se resuelva el cambio climático, se elimine la pobreza y la humanidad colonice el espacio. Todo esto, afirma Altman, está a la vuelta de la esquina, si los titanes de la tecnología reciben suficientes recursos y libertad de acción.
Este tipo de opiniones son comunes en Silicon Valley. Demis Hassabis, CEO y cofundador de Google DeepMind , afirma que en 2030 aparecerá un software capaz de razonar a nivel humano: la inteligencia artificial general o AGI. El científico jefe de AGI de DeepMind, Shane Legg, lo sitúa en 2028. El director de Anthropic, Dario Amodei, cree que los humanos quedarán por detrás de las máquinas a partir de 2026. Elon Musk cree que esto podría ocurrir a finales de este año.
Pero estas previsiones épicas chocan con el ritmo actual de los avances de la IA. Mientras tanto, aumentan las pruebas de los riesgos y las limitaciones intrínsecas de la tecnología. Y los escollos en su camino hacia la rentabilidad se multiplican. Cada vez más, el bombo de la industria en torno a la IA como fuente de prosperidad universal se ve empañado por las responsabilidades de su desarrollo en el mundo real.
De hecho, los sueños febriles de IA que emanan del jardín amurallado de Silicon Valley probablemente no sean realizables. Son más bien avatares de los intereses y valores de la ultraélite de la comunidad tecnológica. Reflejan el deseo de rediseñar el proyecto humano. Al tratar de manifestar la superinteligencia informática, los aceleradores de la IA parecen haber pasado por alto algunos factores clave. Por ejemplo, sus visiones a medida del futuro no tienen en cuenta los caprichos del comportamiento de los consumidores y el poder del Estado. Faltan infraestructuras energéticas. Y las empresas no están dispuestas a alterar sus actuales modelos de negocio. Las guerras comerciales, el creciente proteccionismo, los recursos mundiales finitos y las cadenas de suministro anudadas complican aún más las cosas.
Esto no quiere decir que la tecnología sea menos importante y prometedora. Las aplicaciones de aprendizaje automático ya están estimulando la innovación y el aumento de la productividad tan necesarios en casi todos los sectores de la economía mundial.
Los investigadores disponen ahora de una nueva y poderosa herramienta para diseñar vacunas y tratamientos contra el cáncer más eficaces, gracias al trabajo de Hassabis y su colaborador, galardonado con el Premio Nobel, de utilizar la IA para resolver los enigmas biológicos del plegamiento de las proteínas, un proceso que durante mucho tiempo había exasperado a la ciencia médica. Los países en desarrollo también se beneficiarán enormemente del uso de la IA para mejorar la cartografía de la población. Estos países también verán un enorme desbloqueo del capital humano a través del crecimiento de la educación impulsada por la IA y las aplicaciones de información sanitaria en los teléfonos inteligentes.
La nueva tecnología agrícola digital también será fundamental. La producción mundial de alimentos debe aumentar un 60–70% a mediados de siglo para satisfacer la demanda de una población prevista de 10.000 millones de personas. La incorporación de la IA a los robots puede ayudar a paliar el déficit de mano de obra derivado del envejecimiento de los trabajadores. Los modelos meteorológicos más inteligentes ya están identificando el inicio de fuertes tormentas mucho antes que los sistemas de predicción anteriores, reforzando la ayuda en caso de catástrofe. La prestación de servicios públicos por parte de los distintos niveles de gobierno está mejorando gracias a un análisis más rápido de los macrodatos.
Incluso en los conflictos armados hay motivos para el optimismo. Ucrania ha utilizado drones inteligentes y software algorítmico de selección de objetivos para defenderse de una Rusia amenazadora. Las aplicaciones militares de la IA representan sin duda un importante dilema para el control de armas, dada la posibilidad de que los seres humanos se conviertan en participantes pasivos en la guerra. Pero la hábil adopción de sistemas de armas autónomas y ciberdefensas basadas en IA por parte de las democracias liberales también podría ser clave para disuadir a las autocracias hostiles en un mundo más inestable.
Y la IA seguirá mejorando; debe hacerlo. Internet se está saturando de contenidos de IA, lo que dificulta el desarrollo de nuevos modelos fundacionales. Esto se debe a la cada vez menor cantidad de nuevos datos de alta calidad que las empresas tecnológicas pueden extraer de la Red en forma de texto, imágenes y vídeos generados por humanos. Dicho esto, es probable que los avances de la tecnología no sigan la trayectoria ascendente que prevén sus más fervientes defensores. La confianza pública en los sistemas de IA ya tiende a la baja en todo el mundo. Los modelos generativos de IA siguen estando especialmente afectados por profundas imprecisiones y extrañas alucinaciones. Y estos defectos parecen arraigados por al menos dos razones: la escasez de datos y la economía.
«Los sistemas de IA se vuelven inestables tras canibalizar otros datos generados por máquinas»
En primer lugar, Internet se está saturando de contenidos de IA, lo que dificulta el desarrollo de nuevos modelos fundacionales. Esto se debe a la cada vez menor cantidad de nuevos datos de alta calidad que las empresas tecnológicas pueden extraer de la Red en forma de texto, imágenes y vídeos generados por humanos. Los sistemas de IA se vuelven inestables tras canibalizar otros datos generados por máquinas. Un estudio sugiere que las empresas tecnológicas podrían agotar la biblioteca de texto humano disponible públicamente en línea en algún momento entre 2026 y 2032.
Siempre es posible que los desarrolladores consigan innovar para sortear este obstáculo. Pero es una posibilidad remota. Incluso los principales científicos del mundo especializados en IA admiten que no pueden comprender el funcionamiento interno de sus creaciones. Anthropic es el que más ha avanzado: el pasado mes de mayo publicó un trabajo de investigación en el que se identificaba cómo se representan millones de conceptos en una versión de Claude, su modelo de lenguaje de gran tamaño (LLM). Sin embargo, aún deja mucho que desear. Los algoritmos de creación de conceptos del GPT–4 de OpenAI, por ejemplo, requieren unos 1,8 billones de parámetros. En su artículo, los investigadores de Anthropic confiesan que obtener una comprensión completa de sus modelos tendría un “coste prohibitivo”. También dicen que requeriría un vertiginoso grado de potencia computacional, más de la necesaria para entrenar a Claude.
El científico cognitivo Gary Marcus afirma en un ensayo reciente que “es probable que la economía nunca tenga sentido”. “Las altísimas valoraciones de empresas como OpenAI y Microsoft se basan en gran medida en la idea de que los LLM se convertirán, con un escalado continuado, en inteligencia artificial general”, señala. Pero esto es una fantasía, afirma Marcus. “No hay una solución de principios para las ilusiones en sistemas que sólo trafican con las estadísticas del lenguaje sin una representación explícita de los hechos y herramientas explícitas para razonar sobre esos hechos”.
Además, aún no está nada claro que la IA avanzada pueda llegar a ser rentable. Los signos de una burbuja de inversión ya estaban apareciendo a finales de 2023. Un año después, los datos financieros de la industria siguen confundiendo incluso a los gestores más astutos del mundo. Un informe de Goldman Sachs del pasado mes de junio afirma que las empresas de todo el mundo están preparadas para gastar 1 billón de dólares en infraestructura de IA a corto plazo. Y otra nota de investigación publicada por el banco en septiembre añade algo de claridad. En ella se afirma que el riesgo de inversión se debe sobre todo a que “un puñado de valores tecnológicos representan una proporción extraordinariamente elevada de la capitalización bursátil”. La solución, según uno de los principales estrategas del banco, es que los inversores pivoten hacia “empresas tecnológicas más pequeñas y otras partes del mercado, incluso en la vieja economía, que disfrutarán del crecimiento de un mayor gasto en infraestructuras”.
Traducción: el variado ecosistema global de la IA seguirá evolucionando de forma tangible y productiva, pero los beneficios de la tecnología serán difusos. Las grandes empresas tecnológicas están “quemando” dinero a base de promesas, con creciente dificultad en justificarlo con pruebas. “Después de años lanzando productos de IA cada vez más sofisticados a una velocidad vertiginosa”, informaba Bloomberg a mediados de noviembre, “tres de las principales empresas de IA están viendo cómo disminuyen los beneficios de sus costosos esfuerzos por construir modelos más nuevos”.
OpenAI y Google lanzaron a principios de diciembre sus esperados nuevos productos. OpenAI afirma que su modelo o1 –apodado “Strawberry” y disponible sólo para suscriptores de pago– demuestra capacidad de razonamiento. La empresa también presentó su generador de vídeo con IA, Sora, con críticas mixtas, y planea lanzar a principios de 2025 un nuevo modelo o3, que cree que se acerca a la AGI.
A continuación, Google reveló un modelo Gemini mejorado, previsto como un asistente personal universal. “Llevo mucho tiempo soñando con un asistente digital universal como peldaño hacia la inteligencia artificial general”, declaró Hassabis, CEO de Google DeepMind, a la revista WIRED. Anthropic aún no ha lanzado un nuevo modelo debido a los decepcionantes avances.
Silicon Valley sigue avanzando. Los investigadores del sector se centran en si la eficacia y precisión de los modelos puede mejorarse dando más tiempo a los sistemas para procesar las aportaciones de los usuarios. Sin embargo, explorar este enfoque exigirá mantener unos niveles de gasto desorbitados. “A las empresas tecnológicas les gusta hacer dos grandes declaraciones sobre el futuro de la inteligencia artificial”, afirma el periodista Matteo Wong. “En primer lugar, la tecnología va a marcar el comienzo de una revolución similar a la llegada del fuego, las armas nucleares e Internet. Y segundo, va a costar sumas de dinero casi insondables”.
Una de esas empresas tecnológicas, Meta, gastó más de 40.000 millones de dólares en nuevos centros de datos y hardware dedicados a la IA sólo en 2024. Eso es algo más que el PIB de Estonia. Amazon gastó alrededor de 75.000 millones de dólares, la producción económica de Ghana. El coste de formación de los modelos de IA más recientes supera ya los 1.000 millones de dólares. Amodei, CEO de Anthropic, cree que podría alcanzar los 100.000 millones de dólares en 2027. Por otra parte, Sam Altman estima que se necesita una expansión de 7 billones de dólares de la industria de semiconductores para alcanzar la AGI. El consejero delegado de OpenAI pretende financiar esta empresa recurriendo a los fondos soberanos de las monarquías del Golfo. Esto podría plantear un dilema geopolítico a Estados Unidos, en particular, y a las democracias liberales en general.
También existe una grave disonancia entre la forma en que los idealistas de Silicon Valley promueven las posibilidades benévolas de la IA y las tácticas despiadadas que se están utilizando para desarrollarla. Incluso si las grandes empresas tecnológicas consiguen desarrollar la inteligencia artificial, hay pocas garantías de que la tecnología vaya a dar paso a un mundo más equitativo.
“En los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”, se lamentaba Jan Leike en mayo de 2024, cuando dirigía OpenAI para alinear los sistemas de IA de vanguardia con los valores humanos. La frase formaba parte de un largo hilo en X en el que anunciaba su dimisión. Un mes después, más de una docena de investigadores actuales y antiguos de OpenAI, Google DeepMind y Anthropic afirmaron en una carta abierta que sus jefes vetaban con frecuencia sus preocupaciones por la seguridad. Estos mismos gigantes tecnológicos llegaron a donde están gracias a la recolección de datos de entrenamiento sin el consentimiento de los creadores. La clase precaria de trabajadores con salarios bajos que alimenta el auge de la industria está muy explotada. Las leyes antimonopolio se incumplen sistemáticamente y no se pagan impuestos ni multas. Las empresas de redes sociales también están desmantelando las salvaguardias de contenidos a pesar de haber prometido frenar los deepfakes y el material falso virulento. OpenAI exime a sus usuarios de primer nivel de las marcas de agua visuales en los contenidos de vídeo realizados con Sora.
“Es poco probable que la verdadera promesa de la IA se haga realidad por sí sola”, escribió recientemente Daron Acemoglu, economista del Instituto Tecnológico de Massachusetts galardonado con el Premio Nobel en 2024. “Requiere que los modelos de IA se vuelvan más expertos, mejor alimentados por datos de mayor calidad, más fiables y más alineados con los conocimientos existentes y las capacidades de procesamiento de información de los trabajadores. Nada de esto parece ser prioritario en la agenda de Big Tech”.
Es más, los embajadores de Silicon Valley han adoptado la estrategia de pedir regulaciones mientras se oponen a cualquier propuesta de ley que tenga dientes. El director de política global de OpenAI sugirió en una entrevista reciente que el uso responsable de la IA vendrá determinado por “si la IA democrática va a prevalecer sobre la IA autocrática”. Y todas las grandes empresas tecnológicas occidentales firmaron en julio de 2023 las salvaguardias voluntarias sobre IA de la administración Biden. Un mes antes, el propio Sam Altman pidió la creación de una organización mundial de supervisión de la IA similar a la Agencia Internacional de la Energía Atómica. “Nos enfrentamos a un riesgo existencial”, dijo Altman ante una audiencia en los Emiratos Árabes Unidos.
Pero estos argumentos ocultan el creciente historial de las grandes empresas tecnológicas, que eluden los controles y equilibrios democráticos. En parte, esto se consigue mediante colosales esfuerzos de presión. Por ejemplo, Gavin Newsom, gobernador de California –sede de Silicon Valley–, rechazó en septiembre un proyecto de ley legalmente vinculante sobre seguridad de la inteligencia artificial aprobado por abrumadora mayoría por los legisladores del estado, después de que una coalición de la industria tecnológica lanzara un bombardeo de relaciones públicas contra él. La nueva ley habría obligado a las empresas tecnológicas a realizar pruebas de seguridad en los modelos más grandes de la industria y las habría hecho responsables de los daños que causen. El proyecto de ley también obligaba a las empresas tecnológicas a instalar un interruptor de seguridad para evitar que los sistemas se volvieran peligrosos. En su lugar, Newsom autorizó un conjunto de leyes más reducido.
El enfoque de la segunda administración Trump sobre la regulación tecnológica aún no ha tomado forma. Pero los instintos del presidente electo tienden hacia una libertad corporativa al estilo de la ley de la selva. Los medios de comunicación indican que el plan de Trump es deshacerse de la orden ejecutiva del presidente Biden sobre la seguridad de la IA, firmada en octubre de 2023, en favor de una rápida desregulación. Durante la campaña electoral, muchos magnates de la tecnología se apresuraron a respaldar a Trump. En particular, la lista incluye a Elon Musk, que ha sido nombrado para dirigir el nuevo Departamento de Eficiencia Gubernamental del presidente electo, encargado de asesorar a la Casa Blanca sobre cómo recortar el gasto federal estadounidense. Todo ello a pesar de que las empresas de Musk se enfrentan colectivamente a docenas de investigaciones y demandas federales por supuestas malas prácticas.
En conjunto, los plazos y las ambiciones de Silicon Valley para la AGI apuntan menos a un caso empresarial sólido que a una búsqueda tecno–libertaria de un espíritu empresarial salvaje. Durante años, esta búsqueda fue personificada por el temerario ethos de Mark Zuckerberg de querer “moverse rápido y romper cosas”. Últimamente, se ha hecho igual de evidente en el objetivo de Sam Altman de automatizar al “humano medio”. Elon Musk, por su parte, ha contribuido ayudando a difundir la idea de un gobierno dirigido por “ varones de alto estatus”.
En un manifiesto autopublicado en el sitio web de su empresa, el capitalista de riesgo Marc Andreessen cita a Filippo Tommaso Marinetti, futurista italiano del siglo XX y aliado del dictador fascista Benito Mussolini: “No hay obra maestra que no tenga un carácter agresivo. La tecnología debe ser un asalto violento a las fuerzas de lo desconocido, para obligarlas a inclinarse ante el hombre”. En una sección titulada “El enemigo”, Andreessen enumera el principio de precaución –la idea de que las empresas de alto riesgo deben ejecutarse lentamente para evitar daños irreversibles– como uno de los que hay que denunciar. La sostenibilidad y la responsabilidad social también son, según él, “malas ideas” corrosivas para el progreso humano. Desde la reelección de Trump, Andreessen se ha convertido en uno de sus principales asesores en materia de tecnología y política económica.
Esa arrogancia también es evidente en la cultura insular de Silicon Valley y en su fascinación por el transhumanismo y la inmortalidad posibilitada por la tecnología. El inversor iconoclasta Peter Thiel ha sido un ferviente defensor del movimiento de las casas flotantes, que pretende permitir a los plutócratas eludir la autoridad estatal creando comunidades flotantes artificiales en aguas internacionales. Mientras tanto, el planeta arde y casi un tercio de la humanidad sigue sin tener acceso a Internet.
“¿Se puede esperar que las empresas privadas que impulsan la frontera de una nueva tecnología revolucionaria actúen en interés tanto de sus accionistas como del resto del mundo?”. Helen Toner y Tasha McCauley, dos ex miembros del consejo de administración de OpenAI, plantearon esta pregunta a principios de este año en un ensayo para The Economist. Ambas mujeres fueron expulsadas de la empresa en la lucha de poder que estalló tras el breve despido de Sam Altman en noviembre de 2023, supuestamente por mentir al consejo sobre decisiones clave y protocolos de seguridad internos.
Altman fue readmitido solo cinco días después de su destitución, gracias a la presión concertada de los aliados de la industria de OpenAI y los principales inversores. “Nuestra historia particular ofrece la lección más amplia de que la sociedad no debe permitir que el despliegue de la IA esté controlado únicamente por empresas tecnológicas privadas”, escriben Toner y McCauley. “Solo a través de un sano equilibrio entre las fuerzas del mercado y una regulación prudente podremos garantizar de forma fiable que la evolución de la IA beneficie realmente a toda la humanidad”.
Incluso entonces, las limitaciones de los datos y la mera economía significan que la propia IA puede que nunca alcance las metas con las que fantasean sus mayores entusiastas. Es más probable que “intensifique y solidifique la estructura del presente”, sugiere Navneet Alang, escritor afincado en Toronto. “Seguirá habiendo grietas en las aceras. La ciudad en la que vivo seguirá en obras. El tráfico probablemente seguirá siendo un caos, aunque los coches se conduzcan solos”.
La IA está destinada a alterar la forma en que los seres humanos viven, trabajan e interactúan. De maneras buenas, malas y aún desconocidas, y casi con toda seguridad diferentes de las previstas por los evangelistas de Silicon Valley.
Artículo traducido del inglés de la web de CIGI.