Durante los últimos tres años, el auge de la IA/LLM y el superciclo de inversión asociado han tenido un profundo efecto en la economía, los mercados financieros y la sociedad (aunque no en la productividad empresarial, como veremos más adelante). Sin embargo, a medida que el optimismo desenfrenado hacia la IA y sus manifestaciones en los mercados financieros han seguido creciendo, se han ido acumulando silenciosamente pruebas de que muchas de las hipótesis fundamentales del auge están empezando a tambalearse. La divergencia entre ambos se ha vuelto tan marcada que hay argumentos de peso para afirmar que el auge se ha transformado ahora en una burbuja en toda regla, y de un tamaño que hace que la burbuja puntocom parezca positivamente pintoresca.

No se puede negar que las capacidades de los LLM son asombrosas; ahora utilizo ChatGPT a diario. Al principio, el entusiasmo parecía justificado, por lo que, a pesar de mi instinto contrario, me abstuve de considerarlo una burbuja. Las capacidades de los LLM parecían impresionantes y avanzaban a un ritmo vertiginoso, con «leyes de escala» que prometían más avances, quizás hasta llegar a la AGI y más allá. Los cambios sociales y los beneficios en materia de productividad que se derivarían de tal avance serían profundos.

Sin embargo, los últimos acontecimientos están sembrando serias dudas sobre esa trayectoria, y las expectativas excesivamente optimistas de la gente parecen cada vez más alejadas de la realidad. Como explicaré más adelante, las llamadas «leyes de escala», que son una hipótesis fundamental, parecen estar fallando, mientras que las prometidas ventajas en términos de productividad no se han materializado hasta ahora. Los LLM parecen tener cada vez más limitaciones estructurales en sus capacidades de razonamiento y una propensión incurable a las alucinaciones, que las arquitecturas iterativas de LLM podrían no ser capaces de corregir.

Pero estas «verdades incómodas» están siendo ignoradas por completo. Sin dejarse intimidar por los recientes reveses, la industria sigue adelante con otro aumento de magnitud en la inversión en computación hasta niveles que se acercan rápidamente a los 500 000 millones de dólares al año, mientras que las valoraciones del mercado de valores y de las empresas emergentes de IA han seguido levitando. En esta etapa, un auge con fundamentos racionales parece haberse transformado en una burbuja irracionalmente exuberante, y su estallido podría tener consecuencias importantes, tanto para la economía como para los mercados financieros.

Antes de continuar con mi argumento, es necesario hacer una advertencia. La IA es un campo en rápida evolución, por lo que cualquier opinión «grabada en el tiempo» siempre conllevará un riesgo significativo de parecer errónea en retrospectiva. En situaciones de gran incertidumbre y cambios rápidos como esta, lo mejor es mantener una opinión flexible y adaptable a las nuevas pruebas. Pero en este momento parece haber una divergencia tan creciente entre las tendencias tecnológicas recientes y las percepciones más amplias del mercado que me siento obligado a escribir algo.

En la medida en que tenga razón, las implicaciones serán realmente enormes. Se trata realmente de una cuestión de más de 10 billones de dólares. El actual superciclo de inversión en IA está actuando como un importante estímulo económico en un momento en el que otras partes de la economía muestran signos de debilidad, y ha impulsado aún más el mercado de valores, dada la gran ponderación en los índices y los altos múltiplos de sus (ahora numerosos) componentes. Y no se trata solo de los sospechosos habituales de las Mag-7: Microsoft, Google, Amazon y Meta (caros, pero no exageradamente); Tesla (escandalosamente excesivo, ya que, además de la fiebre por Elon, se ha llegado a considerar una apuesta por la IA: antes eran los vehículos autónomos/robotaxis y ahora es la promesa de los robots con IA, a pesar de no haber cumplido con lo primero); y Nvidia y Broadcom (grandes empresas, pero excesivas si no se cree que el nivel actual de inversión en IA sea sostenible).

También incluye todas las empresas de la cadena de suministro de chips (TSMC y los fabricantes de memorias SK Hynix, Samsung y Micron) y las empresas de semiconductores (ASML, Lam, Applied Materials y KLA). Aunque los múltiplos aquí no son exagerados, en una caída de la inversión en IA sus ganancias caerán precipitadamente. Mucho más grave es el caso de las empresas que se perciben como beneficiarias de la IA, como Palantir (que ahora cuenta con una capitalización bursátil de 430 000 millones de dólares con solo 4000 millones de dólares de ingresos), y que se extiende a empresas que no se esperaría que estuvieran relacionadas con la IA, como Axon Enterprises, una empresa de pistolas eléctricas y cámaras corporales con una capitalización bursátil de 56 000 millones de dólares que cotiza a 100 veces sus ganancias, ya que la gente cree que podrá aplicar la IA a sus abundantes datos. Entre los elegidos se encuentra ahora también Oracle, que hace unos meses sumó 200 000 millones de dólares a su capitalización bursátil en un solo día ante los indicios de que se está convirtiendo en una importante empresa de computación en la nube basada en la IA.

Además, las grandes empresas tecnológicas chinas también han experimentado recientemente un fuerte repunte (en particular Alibaba), ya que se las considera ahora como empresas dedicadas a la inteligencia artificial, en lugar de simples empresas de comercio electrónico con problemas estructurales en un mercado cada vez más saturado y propenso a las guerras de precios, con una mala asignación de capital para empezar. Tal es el nivel de entusiasmo por la IA en la actualidad que la noticia de que la empresa gastaría 50 000 millones de dólares en inversiones en centros de datos de IA (las recompras y los dividendos tendrán que esperar) se ha visto recompensada con un repunte del 50 %, lo que ha añadido 150 000 millones de dólares a la capitalización bursátil. También se estima que la IA representa ahora un porcentaje bajo de un solo dígito (y en rápido crecimiento) de la demanda de electricidad de EE. UU., por lo que incluso las empresas de servicios públicos se han recuperado y se consideran empresas relacionadas con la IA. Los tentáculos del auge de la IA son largos y variados. Si se suman todos estos factores, se trata de una minoría significativa de la capitalización bursátil mundial.

En resumen, la sostenibilidad del actual superciclo de inversión en IA es absolutamente crítica para las perspectivas del mercado (y de la economía), y con una asimetría: las valoraciones asumen en gran medida que el auge continuará sin cesar, mientras que, si el mercado se equivoca, muchas valoraciones podrían caer entre un 50 % y un 90 %. Hay mucho en juego y, en un escenario bajista, podría producirse una caída del mercado de proporciones históricas, con la «locura de LLM» ocupando su lugar junto a la burbuja puntocom, la crisis financiera global y la covid como los acontecimientos históricos más destacados de este siglo en los mercados.

Por cierto, esto no significa necesariamente que en el futuro la IA no vaya a ser transformadora. Internet resultó ser todo lo que los optimistas esperaban y soñaban que sería en la década de 1990, y más. Pero, aún así tuvimos una enorme burbuja que estalló en 2000-2003. No hay que ser pesimista sobre las perspectivas a largo plazo de la IA para creer que existe un enorme desajuste entre las expectativas actuales y las perspectivas realistas a medio plazo. Y las realidades económicas también importan, no solo las tendencias tecnológicas.

Además, aunque se está ralentizando rápidamente, es probable que siga habiendo al menos algunos avances en IA/LLM. La pregunta pertinente es si serán suficientes para justificar los prodigiosos costes económicos. Ya existe un enorme desajuste entre los costes/gastos de capital de la IA y los ingresos, y parece probable que empeore rápidamente a partir de ahora. Si efectivamente ese es el caso, el ajuste financiero es solo cuestión de tiempo.

Como la mayoría de las burbujas, la locura por los LLM comenzó con bases sólidas, pero ahora se está llevando a un exceso mórbido e irracional. El entusiasmo inicial por los LLM estaba justificado. Los primeros modelos de LLM (en particular ChatGPT-3) no solo impresionaban y sorprendían, sino que parecían mejorar a un ritmo vertiginoso y adherirse a las llamadas «leyes de escala». Esta última era una creencia/suposición/observación empírica de que todo lo que se necesitaba para generar modelos más eficaces era (después de recopilar todos los datos de Internet) aplicar un orden de magnitud mayor de computación, aumentar el número de parámetros y entrenar los modelos durante más tiempo, y voilà, se obtenía un aumento importante del rendimiento.

Este optimismo se vio reforzado cuando las leyes de escala se mantuvieron para ChatGPT-4: un orden de magnitud más de potencia de cálculo produjo una enorme ganancia de rendimiento, exactamente en línea con las predicciones de las leyes de escala. La gente estaba eufórica y extrapoló con confianza las ganancias, ya que las leyes de escala parecían implicar una vía rápida hacia la IGA.

En la medida en que estas suposiciones se cumplían, el entusiasmo estaba justificado. La AGI estaba a solo unos años de distancia, lo que sin duda era algo muy importante. Creo que esto es lo que llevó a personas como Eric Schmidt a argumentar que la IA había sido en realidad «infravalorada». Iba a ser revolucionaria en muchos sentidos. Además, con el tiempo se llegó a creer que los LLM no solo predecían el texto estadísticamente, sino que también desarrollaban un modelo interno del mundo, absorbiendo no solo palabras tokenizadas, sino también el significado subyacente detrás de ellas. Después de todo, la mejor manera de predecir el texto puede ser comprender realmente el significado que representan las palabras. Yo también suscribí esta opinión durante un tiempo, y parecía apuntar al surgimiento genuino de la inteligencia artificial. El futuro parecía realmente interesante.

El problema es que las pruebas recientes están poniendo en duda muchas de estas hipótesis fundamentales. El avance más significativo es que la «ley de escala» parece estar rompiéndose: un mayor poder de cálculo ya no proporciona ganancias proporcionalmente significativas en el rendimiento del modelo. De hecho, es incluso posible que los modelos futuros empiecen a empeorar debido a la «contaminación» de la IA en el conjunto de datos de entrenamiento (que se analiza más adelante). 

Además, también están surgiendo pruebas de que los LLM tienen limitaciones fundamentales en su capacidad de razonamiento y, en contraste con el optimismo especulativo inicial, parece que, en realidad, no tienen modelos internos del mundo, sino que son simplemente sofisticados motores de imitación. Los resultados poco fiables, o «alucinaciones», están demostrando ser persistentes y pueden ser, de hecho, una característica incurable de las arquitecturas LLM, en lugar de simples molestias temporales. En la medida en que esto resulte ser cierto, los LLM pueden ser un callejón sin salida y los auténticos avances en IA/AGI pueden requerir que volvamos «a la mesa de diseño» con RL y/o arquitecturas completamente nuevas y más específicas, lo que podría suponer un trabajo más duro y retrasarnos décadas con respecto a las expectativas anteriores.

El avance más significativo es que, desde ChatGPT-4, que supuso una mejora importante con respecto a la versión 3, las leyes de escalabilidad han comenzado a romperse. ChatGPT-5, cuyo desarrollo llevó más de dos años y se lanzó con retraso (lo que podría indicar que OpenAI tuvo problemas con él a puerta cerrada), fue una gran decepción, ya que, en el mejor de los casos, solo aportó mejoras marginales (algunos usuarios incluso lo consideran inferior a ChatGPT-4) a pesar de que se le aplicó otra orden de magnitud de computación. En términos más generales, el ritmo de avance de los modelos básicos parece estar desacelerándose rápidamente y el rendimiento de los modelos competidores con acceso divergente a los recursos informáticos está convergiendo asintóticamente, en lugar de que los grandes actores se alejen cada vez más (lo que cabría esperar en un mundo regido por las leyes de escala).

El énfasis también está pasando del preentrenamiento al entrenamiento posterior al modelo, incluyendo el uso de técnicas de RL humanas para ajustar/mejorar los resultados. Si el preentrenamiento siguiera produciendo enormes ganancias según la «ley de escala», no se molestarían en realizar el postentrenamiento, ya que el esfuerzo no valdría la pena y se vería eclipsado por las ganancias del preentrenamiento. A menudo, estos ajustes se centran en mejorar ligeramente el rendimiento en diversas pruebas de referencia de modelos, por lo que son de naturaleza bastante superficial. Este cambio de énfasis es una prueba circunstancial más.

La ley de escalabilidad no es, por supuesto, una ley, sino simplemente una observación empírica, una suposición y una esperanza. No existe ninguna ley natural que prometa LLM más inteligentes a cambio de más capacidad de cálculo, y la suposición de un escalado infinito en lugar de rendimientos decrecientes siempre ha sido cuestionable, como han argumentado durante mucho tiempo observadores como Gary Marcus. Si se dispone del mismo conjunto de datos (la mayor parte de Internet ya ha sido rastreada), ¿es realmente razonable creer que cada orden de magnitud adicional de cálculo producirá las mismas mejoras exponenciales, en lugar de atenuarlas rápidamente?

Además de los problemas de escalabilidad, cada vez hay más pruebas de que los LLM tienen limitaciones fundamentales en sus capacidades de razonamiento. Un influyente estudio reciente, titulado «The Illusion of Thinking» (La ilusión del pensamiento), analizó los LLM de cadena de pensamiento y concluyó que el razonamiento de la IA es más ilusorio que real. Esta es la razón fundamental por la que las «alucinaciones» no han desaparecido, y cada vez parece más probable que sean una característica inherente a las arquitecturas de los LLM.

Además, también se está cuestionando la idea de que los LLM hayan desarrollado un modelo interno del mundo. Esto se hace evidente en el hecho de que, a pesar de todos los sofisticados resultados que pueden generar, siguen cometiendo errores muy rudimentarios. Cal Newport destacó que los GPT a veces sugieren movimientos ilegales en el ajedrez, lo que demuestra una falta fundamental de cualquier «modelo del mundo» sobre el ajedrez, mientras que Gary Marcus señaló que los modelos de difusión a menudo dan una cantidad errónea de (por ejemplo) raquetas de tenis cuando se les solicita. Esto concuerda con el hecho de que los modelos no comprenden los resultados que generan. Los LLM son modelos de imitación, no modelos de razonamiento; son sofisticados motores de predicción de texto. Proporcionan la ilusión de inteligencia, pero en realidad no comprenden nada. Ni siquiera pueden diferenciar entre cuándo se les está entrenando y cuándo se les está utilizando.

De hecho, en un nivel más fundamental, se puede argumentar que los LLM no son inteligentes en absoluto. En este excelente debate en profundidad sobre la verdadera naturaleza de la inteligencia (véase también esta presentación), Rich Sutton argumenta de forma convincente que los LLM no son genuinamente inteligentes porque no son capaces de aprender y adaptarse a través de una interacción orientada a objetivos con el mundo real. A diferencia de los agentes inteligentes como los seres humanos, no se aplican y aprenden al mismo tiempo a través del contacto activo con su entorno, sino que dependen del entrenamiento utilizando datos de segunda mano adquiridos por los seres humanos y expresados en texto, y en su implementación se encuentran en estasis y no adquieren nuevos conocimientos ni se adaptan a nuevas experiencias. Por lo tanto, tienen una incapacidad fundamental para aprender de forma iterativa del mundo en el que se encuentran.

Sutton cree que la arquitectura fundamental de los LLM hace imposible la adquisición de inteligencia genuina; lo mejor que pueden hacer es sintetizar (¿plagiar?) la información existente generada por humanos y reproducirla con un cierto grado de falta de fiabilidad inherente. Además, son incapaces de generar ideas genuinamente nuevas; si se hubieran construido en 1900, por ejemplo, no habrían podido elaborar la teoría de la relatividad de novo antes que Einstein, ya que no tienen capacidad para interactuar con el mundo real y aprender de él de forma adaptativa. Si tiene razón en esto, los LLM podrían resultar ser un callejón sin salida fundamental en la búsqueda de la IA.

Otra cuestión de la que no se habla lo suficiente es que, a medida que más contenido en Internet se genera mediante IA, el conjunto de datos de entrenamiento se «contaminará» cada vez más. Inicialmente, la IA se entrenó con datos 100 % humanos y, aunque la calidad de esos datos es variable, al menos representan las reflexiones meditadas de agentes humanos que actúan en el mundo real. Sin embargo, el contenido de IA contiene ruido alucinógeno generado aleatoriamente por LLM, y a medida que crece la adopción de LLM y cada vez más contenido online rastreable se genera mediante IA, la «contaminación» de la IA empeorará, posiblemente hasta el punto de que la calidad de los modelos pueda empezar a disminuir (esto es especulativo, pero es una posibilidad real).

Este vídeo de Kurzgesagt analiza muy bien esta dinámica. Sus esfuerzos por utilizar la IA para facilitar la generación de contenido sobre planetas enanos marrones les llevó a encontrarse con muchos estudios y datos falsos generados por la IA, que su meticulosa verificación de fuentes descubrió. Posteriormente, otros canales menos rigurosos han incluido el contenido falso generado por la IA en sus vídeos, que han obtenido cientos de miles de visitas. En el futuro, los modelos de IA utilizarán vídeos con datos falsos generados por la IA como fuentes de entrenamiento autorizadas, y no tienen ninguna forma arquitectónica de corregir los errores, ya que no tienen un modelo interno del mundo ni capacidad intrínseca para interactuar directamente con el mundo o razonar, sino solo para asimilar lo que se les alimenta. Esto podría presagiar un problema importante en el futuro, ya que los LLM no podrán distinguir entre el contenido generado por la IA y el contenido generado por humanos.

Consumir la producción de un LLM es, en cierta medida, similar a leer la producción de un mal periodista. Si se sabe poco de los hechos subyacentes, la producción parece creíble e impresionante. Pero cuanto más se sabe sobre los acontecimientos reales, más evidentes resultan las inexactitudes fácticas. La producción de un LLM es superficialmente impresionante si se carece de conocimientos previos sobre el tema, pero cuanto más se sabe, más evidentes son las limitaciones de la producción del LLM.

Tal es el grado en que hoy en día se utiliza la fe y el bombo publicitario en lugar del pensamiento basado en principios fundamentales, que «IA» se ha convertido en sinónimo de «LLM». Pero los LLM no son inteligencia artificial, sino un algoritmo de red neuronal muy particular que da lugar a un sofisticado motor de predicción de texto. Esto puede ser útil en algunos contextos, pero cada vez parece más evidente que tienen limitaciones fundamentales que no conducirán a la AGI, no generarán avances científicos genuinos ni provocarán un milagro de productividad.

Esto me lleva al siguiente punto: ¿dónde están los tan cacareados beneficios en la productividad? Al mismo tiempo que las ganancias en las capacidades de los LLM han comenzado a atenuarse rápidamente (a pesar del rápido aumento del coste económico de esas mejoras), han ido surgiendo cada vez más estudios que apuntan a una notable falta de beneficios en la productividad derivados de la adopción de los LLM (este vídeo de ColdFusion, nada menos que de un tecnoptimista, es una introducción útil). Un estudio reciente del MIT muy citado reveló que hasta el 95 % de las empresas que han intentado adoptar la IA internamente no han observado ninguna ventaja en términos de productividad. Sorprendentemente, incluso hay un estudio que muestra que los programadores que utilizan LLM son menos eficientes. Cal Newport atribuye esto a un trabajo menos profundo y a una menor concentración de los desarrolladores, además de la inevitable necesidad de depurar los errores en el código generado por GPT.

De hecho, hay incluso pruebas de que puede estar reduciendo la productividad empresarial a través del «workslop», lo que conduce a la introducción de errores (a veces bien ocultos) que requieren un esfuerzo humano para descubrirlos y corregirlos. Sin duda, también hay ineficiencias asociadas al hecho de que los empleados de menor nivel se vean obligados a esforzarse por cumplir las órdenes de la dirección de introducir la «IA» en los flujos de trabajo, algo que los LLM son actualmente incapaces de ofrecer.

En los albores de Internet, se creía ampliamente que sería un bien absoluto para la productividad humana, ya que proporcionaría al mundo un acceso fácil e instantáneo a la información. Si bien hemos visto algo de esto, también hemos visto cómo las personas reducen su concentración y dedican una gran cantidad de tiempo a las redes sociales y los juegos en línea. En definitiva, es cuestionable si ha habido algún beneficio neto en términos de productividad. En un mundo perfecto, los LLM podrían impulsar la adquisición de conocimientos, pero es probable que también hagan que las personas sean más perezosas, corroan el trabajo profundo y la concentración, y las hagan más susceptibles a la desinformación al difuminar la delimitación de las fuentes verdaderamente autorizadas y reducir el consumo de fuentes primarias en favor de las secundarias, generadas por los LLM.

Personalmente, creo que en situaciones específicas (como en mi caso), los LLM pueden aumentar la productividad al acelerar la adquisición de conocimientos, y mi instinto me dice que probablemente puedan ayudar a los mejores programadores (o al menos a los más motivados). Sin embargo, los LLM solo son útiles como herramienta supervisada, no como sustituto total del ser humano. Son más útiles para personas a las que les basta con respuestas «aproximadamente correctas» (como en la investigación bursátil) y en las que un operador con conocimientos y pensamiento crítico puede indagar y cuestionar las respuestas y verificar de forma independiente las afirmaciones importantes. Lo mejor es considerarlo como hablar con un humano con conocimientos: se puede aprender mucho, pero tampoco se debe confiar en que todo lo que dice sea 100 % correcto; hay que contrastarlo y cuestionar las respuestas que no sean satisfactorias.

Con ese fin, los LLM son un recurso útil para ciertas personas de alto rendimiento en ocupaciones especializadas, pero no son suficientes para la mayoría de las aplicaciones empresariales en las que se requiere una precisión y fiabilidad del 100 % para automatizar los procesos empresariales fundamentales, ya que los LLM no pueden ofrecer ese grado de fiabilidad. Todo lo que se ha dicho sobre la IA sustituyendo a los humanos y generando una bonanza de productividad se basaba en la suposición de que las leyes de escala se mantendrían y llevarían a los LLM a la AGI y las alucinaciones se desvanecerían, pero esa extrapolación ingenua es inconsistente con lo que está sucediendo actualmente.

Los LLM parecían (y tal vez eran) demasiado buenos para ser verdad: la idea de que podríamos llegar a la AGI simplemente conectando más GPU y dejándolas funcionar. Pero estas «verdades incómodas» significan que lograr una IA genuina y sus beneficios de productividad asociados podría resultar mucho más difícil, si no imposible, como la conducción autónoma, que lleva «a la vuelta de la esquina» desde hace 15 años (y todavía estamos solo en L2 frente a L5 para la autonomía total).

A pesar de lo anterior, la industria de la IA está redoblando sus esfuerzos ante las vacilantes leyes de escalabilidad y aumentando significativamente sus inversiones en capital. Nos queda un orden de magnitud más por recorrer y, evidentemente, vamos a intentarlo. El proyecto Stargate de OpenAI tiene como objetivo aportar hasta medio billón de dólares en computación a sus próximos modelos. Este compromiso continuo es una de las razones por las que las acciones de IA se han disparado durante el último mes, a pesar de las pruebas tangibles que se acumulan sobre la existencia de una burbuja, ya que, a corto y medio plazo, el auge continuará y los proveedores de picos y palas seguirán ganando dinero.

Pero este último aumento de la inversión en capital para mejorar el rendimiento del LLM será el último. El siguiente tramo hasta los 5 billones de dólares no es asequible ni siquiera para los hiperescaladores. Los centros de datos (incluidos los que no son de IA) ya consumían el 4,4 % de la electricidad de EE. UU. en 2023 y habrían crecido considerablemente desde entonces, con una cuota cada vez mayor del consumo energético procedente del entrenamiento de IA (el Departamento de Energía de EE. UU. prevé que entre el 6,7 % y el 12 % de toda la demanda eléctrica de EE. UU. procederá de los centros de datos en 2028). Digamos que, en la actualidad, el porcentaje específico de la IA es de alrededor del 2 %. No puede pasar al 20 % y luego al 200 % (es cierto que los chips más potentes ayudarán, pero incluso con las impresionantes ganancias de Nvidia en el rendimiento de los chips, que también se atenuarán con el tiempo, el consumo de energía y el gasto de capital se han disparado).

Si la próxima fase de inversión en capital no logra generar ganancias significativas, el colapso de las leyes de escala y las limitaciones inherentes a los LLM serán innegables. Los modelos fronterizos más caros serán quizás dos órdenes de magnitud antieconómicos, lo que obligará a dar un giro hacia modelos más eficientes energéticamente, pero menos potentes (como DeepSeek), con un potencial comercial radicalmente reducido. Entonces se producirá un colapso inevitable de la inversión en capital (especialmente con los propios chipsets subyacentes cada vez más eficaces y dejando rápidamente obsoletos a los chips heredados), y la industria se quedará con un exceso de capacidad (alojada principalmente por las grandes empresas de nube, así como por ciertas empresas de modelos fundamentales como OpenAI, que están gastando cientos de miles de millones de dólares al año en clústeres de entrenamiento de GPU LLM).

En este escenario, es probable que las cotizaciones bursátiles de muchas empresas de IA caigan más de un 90 %; Nvidia probablemente caerá entre un 60 % y un 80 %; las empresas de la cadena de suministro de chips probablemente caerán un 50 %; y los actores de la computación en la nube a hiperescala, que se enfrentarán a presiones sobre los ingresos y a un aumento masivo de los gastos de amortización de los kits de IA, también podrían caer entre un 30 % y un 50 %, ya que los beneficios y el crecimiento de la nube se desplomarán y se reducirán las agresivas expectativas de crecimiento futuro. Además, un gran número de startups de IA fracasarán. Es probable que OpenAI sobreviva, dado que cuenta con el respaldo de Microsoft y ChatGPT seguirá siendo útil y capaz de atraer un número considerable de suscripciones de consumidores, pero en una forma muy reducida y con una valoración significativamente menor.

Pero todo esto plantea la pregunta: ¿por qué, dado el evidente deterioro de las leyes de escala, la industria sigue aumentando sus inversiones como loca? ¿Saben algo que nosotros no sabemos? Puede que tenga tanto que ver con su desesperado intento por encontrar una solución a las vacilantes leyes de escala como con su inquebrantable fe en ellas. Un enfoque «multidisparo» (por ejemplo, obtener 100 respuestas en lugar de 1 y agregarlas, y/o pensar más a largo plazo) es una posibilidad: otro intento que esperan que produzca las mejoras de rendimiento deseadas.

Pero la verdad es que las empresas de modelos fundamentales y otras start-ups de IA ya se han volcado en las leyes de escalabilidad de LLM y no tienen alternativa ni plan B. La mayoría de las empresas de IA/modelos fundamentales están perdiendo cantidades prodigiosas de dinero y necesitan mantener vivo el sueño de la escalabilidad para seguir recaudando capital. Dado que todo el ecosistema de IA (en lugar de los proveedores de nube, que por ahora están ganando dinero) está perdiendo dinero, admitir la derrota cortaría la financiación y los llevaría a todos por la vía rápida hacia la quiebra.

Además, la gente no quiere arriesgarse a adoptar una postura contraria y equivocarse. ¿Y si los LLM llegan a convertirse en AGI? Si no inviertes, te quedarás atrás y quedarás en ridículo por haber perdido el tren, lo que podría costarle el puesto al director ejecutivo. En esta entrevista, Marc Zuckerberg utilizó la racionalización «podemos permitírnoslo y no podemos arriesgarnos a perderlo» para justificar el gasto de varios cientos de miles de millones de dólares en kits de formación de LLM. Mientras tanto, las empresas de nube simplemente están respondiendo a la fuerte demanda informática del complejo de IA, que genera pérdidas. Necesitan invertir para satisfacer esa demanda o, de lo contrario, cederán cuota en lo que podría ser un importante motor de crecimiento futuro para el negocio de la computación en la nube. Pero, ¿qué pasaría si la demanda se agotara y se quedaran con cientos de miles de millones en equipos infrautilizados? Están dispuestos a correr ese riesgo, porque pueden permitírselo y porque no pueden permitirse el lujo de arriesgarse a perderlo.

Pero, ¿qué hay de Jenson, que sigue siendo incansablemente optimista? De hecho, ahora está adquiriendo participaciones importantes en empresas y clientes de IA, incluida una inversión de 100 000 millones de dólares en OpenAI (que considera una apuesta segura). Soy un gran admirador de Jenson Huang desde hace mucho tiempo y sigo a Nvidia desde hace 10 años (aunque nunca he tenido acciones). Lo considero muy competente, increíblemente elocuente, con los pies en la tierra y «sin tonterías». A pesar de mi instinto contrario, durante mucho tiempo me abstuve de calificar (o creer) que NVDA era una acción especulativa, ya que anteriormente el auge de LLM tenía una base real mientras se mantenía el crecimiento.

Nvdia es una empresa fenomenal con una enorme capacidad de ejecución y un sólido ecosistema de desarrolladores CUDA, y su implacable ritmo de innovación y ejecución hace que sea prácticamente imposible para cualquiera alcanzarla, siempre y cuando el entorno siga cambiando rápidamente. Todos los mejores quieren trabajar allí, para colaborar con los mejores y más brillantes y tener a Nvidia en su currículum. Jenson ha construido por sí solo una de las mejores empresas del mundo y es una leyenda viva.

Pero en la entrevista más reciente de Jensen, fue la primera vez que me di cuenta de que tal vez se había dejado llevar por el entusiasmo; hasta ahora ha sido un viaje vertiginoso, así que ¿se le puede culpar? ¿Quizás tiene razón? O quizás simplemente es muy bueno dirigiendo una empresa de chips y ha sucumbido a la arrogancia; al fin y al cabo, es humano (apenas). El tiempo lo dirá.

No envidio a los grandes gestores institucionales. Al igual que en la burbuja puntocom, si se apuesta en contra demasiado pronto y/o finalmente se demuestra que se estaba equivocado, puede conducir a un rendimiento desastroso que ponga fin a la carrera profesional. Sin embargo, si se tiene razón y se pueden soportar las presiones de rendimiento a corto plazo, la burbuja puede crear una oportunidad para obtener un rendimiento superior que defina la carrera profesional al esquivar las consecuencias. La situación actual parece análoga. Afortunadamente, puedo optar por no participar en el juego, pero los grandes gestores institucionales tienen una mano más difícil (aunque, en realidad, la mayoría se limitará a ponderar el mercado).

Dicho esto, ahora es un momento ligeramente más fácil, porque las valoraciones bursátiles de las grandes empresas tecnológicas de IA ya se encuentran en niveles vertiginosos que reflejan años de crecimiento muy sólido, mientras que los fundamentos ya han comenzado a deteriorarse. Eso no significa que, si evitas las acciones, no puedas seguir obteniendo resultados catastróficamente malos a medida que las valoraciones pasan de altas a absolutamente descabelladas (y en algunos casos ya lo han hecho), pero, no obstante, ahora es menos arriesgado apostar en contra de la locura por el LLM que hace uno o dos años. Aun así, los mercados pueden hacer locuras durante largos periodos de tiempo: ¡buena suerte, la vas a necesitar!

Para el resto de nosotros, las mejores oportunidades pueden estar en la compra de acciones que se han vendido por el miedo excesivo a la disrupción de la IA (no me gusta vender en corto por las razones expuestas en entradas anteriores, y las opciones de venta a largo plazo probablemente sean caras en este momento). Gartner es un ejemplo de ello, aunque la acción solo es modestamente barata en este momento, y es probable que el múltiplo del mercado en general disminuya en un importante mercado bajista impulsado por la IA. He identificado un candidato en Francia, pero no estoy dispuesto a compartirlo en este momento, ya que todavía estoy comprando.

¿Y si me equivoco? Entonces perdería la oportunidad de comprar acciones muy caras que probablemente no generarán rendimientos superiores a la media a largo plazo desde los niveles actuales, incluso si el auge de LLM continúa sin cesar; y, aunque lo hicieran, conllevarían riesgos ex ante muy considerables. Es una oportunidad que no me importa dejar pasar.

Dicho esto, debo reiterar la advertencia que he señalado anteriormente. Aparte de que se trata de un ámbito complejo y en rápida evolución en el que incluso los profesionales tienen opiniones muy divergentes, no soy un experto en tecnología/IA y solo le he dedicado quizás un 1-2 % de mi tiempo, aunque mis opiniones se basan en gran medida en las de los expertos, en particular en Rich Sutton, Cal Newport (especialmente esta entrevista) y Gary Marcus para el caso bajista; en el caso alcista, he obtenido la mayor parte de mis conocimientos de Jenson Huang y Geoffrey Hinton. Podría estar equivocado.

Será interesante ver cómo se desarrollan los acontecimientos. Es más probable que se produzca una crisis en 2027-28 que, en 2026, ya que hasta entonces no veremos el resultado de los recientes esfuerzos de expansión, aunque siempre es posible que las grietas en el barniz aparezcan antes y los mercados sucumban por adelantado (y cualquier reducción asociada en la financiación disponible para las empresas emergentes de IA tendrá un impacto reflexivo en la demanda de computación). Pero no te juegues el todo por el todo: al fin y al cabo, «quién coño sabe» es la conclusión más segura a la que se puede llegar sobre un tema tan complejo y en rápida evolución.


Artículos relacionados:

Por qué los inversores inteligentes deberían mantenerse al margen de la carrera de la IA

¿Qué hacer con todo el dinero que fluye hacia la IA?


Considere este y otros artículos como marcos de aprendizaje y reflexión, no son recomendaciones de inversión. Si este artículo despierta su interés en el activo, el país, la compañía o el sector que hemos mencionado, debería ser el principio, no el final, de su análisis.

Lea los informes sectoriales, los informes anuales de las compañías, hable con la dirección, construya sus modelos, reafirme sus propias conclusiones, ponga a prueba nuestras suposiciones y forme las suyas propias. 

Por favor, haga su propio análisis.


Fuente / Autor: The LT3000 Blog / Lyall Taylor

https://lt3000.blogspot.com/2025/10/artificial-intelligence-or-authentic.html

Imagen: Bernard Marr

COMPARTIR:

¡Este artículo no tiene opiniones!


Deja un comentario

Tu email no será publicado. Los campos requeridos están marcados con **

Por qué no tengo oro