¿Puede continuar el auge de la inteligencia artificial (IA)?
Esa es la pregunta número 1 a medida que nos adentramos en 2025.
Los valores de IA volvieron a encabezar las listas de resultados el año pasado. Palantir Technologies, que utiliza la IA para atrapar a los «malos», fue el valor del S&P 500 que mejor se comportó, con una subida del 340%.
En el puesto 2 se situó Vistra, el aburrido proveedor de energía que se beneficia del apetito sin fondo de la IA por la energía.
El nº 3 fue Nvidia.
¿Pueden los valores de IA brillar con luz propia en 2025?
Habrá toda una nueva clase de ganadores. Un grupo de valores que hoy se consideran «perros» serán los campeones de la IA en 2025.
Nuestro trabajo como inversores no es predecir el futuro, sino ver el presente con claridad. Y una reciente revelación de OpenAI, creador de ChatGPT, señala la siguiente fase del auge de la IA.
Imagina que tu iPhone tuviera un botón de «pensar mucho».
Púlsalo y, de repente, tu teléfono se vuelve tan inteligente como una sala llena de doctores. Podría resolver enigmas de física y descifrar acertijos de biología que dejan perplejos a la mayoría de los expertos.
OpenAI, creador de ChatGPT, lo ha hecho realidad con su nuevo modelo de IA, o3. Piensa» antes de responder. Y cuanto más piensa, más inteligente se vuelve.
En un examen competitivo de programación, o3 se situó entre los 175 mejores programadores del mundo. Ya resuelve problemas matemáticos que desconciertan a los matemáticos profesionales. Incluso aborda retos de razonamiento que se suponía que no podrían resolverse en los próximos años.
Bajo el capó, o3 descompone las tareas complejas en pasos más pequeños. Si un enfoque no funciona, prueba con otro. La IA suele dedicar 15 minutos a un solo problema, registrando todo lo que prueba por el camino.
Todo este «pensamiento» consume mucha «energía cerebral», alimentada por chips informáticos. Los expertos del sector me dicen que los modelos como o3 utilizan aproximadamente 50 veces más «computación» que el último ChatGPT.
La clave para invertir en o3 es que el gasto en chips de IA está a punto de aumentar (otra vez). Pero esta vez no serán las GPU de Nvidia las que se lleven todo el dinero.
La IA tiene amnesia.
ChatGPT no puede recordar conversaciones pasadas. Cada vez que inicio un nuevo chat, tengo que decirle quién soy y qué quiero.
Los modelos de pensamiento como o3 superan la amnesia de la IA. Pero necesitan cantidades alucinantes de memoria para hacerlo.
Imagínate a ti mismo como un detective tratando de resolver un asesinato. Tu escritorio está lleno de fotos, declaraciones de testigos y notas adhesivas que muestran las conexiones entre las pistas. A medida que profundizas y descubres más pruebas, necesitas escritorios cada vez más grandes.
Así es como funciona o3. Debe almacenar y procesar datos suficientes para llenar miles de iPhones. Eso está provocando un boom de los chips de memoria.
Hay dos tipos principales de chips informáticos:
#1: Lógicos: Las GPU de Nvidia, que procesan datos.
#2: Memoria, que almacena datos.
La memoria siempre ha sido el «perro» del mundo de los chips.
La memoria es barata y comoditizada. Y las empresas que la fabrican son conocidas por su auge y caída.
Nvidia vende sus últimos chips de IA por 40.000 dólares cada uno. Los chips de memoria suelen costar unos pocos dólares.
Pero la IA necesita enormes bancos de memoria. Los servidores de IA utilizan 8 veces más memoria que los ordenadores clásicos. Y eso se duplica con cada nuevo chip.
La parte de memoria de los nuevos bastidores de IA de Nvidia cuesta más que la propia unidad de procesamiento.
Y no hemos hecho más que empezar. Los modelos actuales manejan unos 20.000 tokens (piensa en palabras) en su cadena de razonamiento. Una IA capaz de analizar revistas médicas enteras o diseñar nuevos fármacos necesitará «recordar» el equivalente a una pequeña biblioteca de una sola vez.
Las empresas más ricas del mundo se apresuran a crear un «dios digital».
Por eso Amazon, Google, Microsoft y Meta gastarán más de 200.000 millones de dólares este año en construir sus centros de datos de IA.
Con o3, OpenAI demostró que un camino para construir inteligencia sobrehumana es hacer que la IA piense largo y tendido sobre un problema.
Todos los laboratorios de IA lo copiarán. Google lanzará pronto su propio modelo de «pensamiento». Para finales de 2025, todas las empresas de IA tendrán el suyo propio.
Pero olvídese de los chips baratos y lentos de antaño. La IA necesita una memoria de alto rendimiento que pueda seguir el ritmo de su rápido pensamiento.
Las empresas que fabrican chips de memoria de gran ancho de banda (HBM) están a punto de tener su «momento Nvidia».
La memoria es un cuello de botella clave hoy en día. Más del 90% del tiempo que tarda ChatGPT en responder a tu pregunta se pasa barajando datos entre la lógica y los chips de memoria. Es como tener al cocinero más rápido del mundo en una cocina diminuta, pasando la mayor parte del tiempo moviendo los ingredientes de un lado a otro.
HBM acelera el proceso al integrar una pila de chips de memoria junto con los chips lógicos. Por eso se prevé que las ventas de memoria HBM pasen de 4.000 millones de dólares el año pasado a 81.000 millones el próximo.
SK Hynix (que cotiza en la bolsa de Corea del Sur) es el principal fabricante de chips HBM. Ya ha agotado toda su producción. Su rival estadounidense Micron Technology cuenta con respaldo hasta 2025.
SK Hynix y Micron están vendiendo el ingrediente esencial que hace posible esta nueva clase de modelos de IA. Predigo que serán dos de los valores con mejores resultados de 2025.
El auge de la IA no se está frenando. Está evolucionando. Y en esta próxima fase, la memoria pasará de ser el «perro» al «perro alfa» del mundo de los chips.
Artículos relacionados:
La pasarela entre el mundo físico y el digital
La superinteligencia artificial que podría cambiar el mundo
Considere este y otros artículos como marcos de aprendizaje y reflexión, no son recomendaciones de inversión. Si este artículo despierta su interés en el activo, el país, la compañía o el sector que hemos mencionado, debería ser el principio, no el final, de su análisis.
Lea los informes sectoriales, los informes anuales de las compañías, hable con la dirección, construya sus modelos, reafirme sus propias conclusiones, ponga a prueba nuestras suposiciones y forme las suyas propias.
Por favor, haga su propio análisis.
Fuente / Autor: RiskHedge / Stephen McBride
https://www.riskhedge.com/post/the-nvidia-of-2025
Imagen: Computer Hoy
Deja un comentario
Tu email no será publicado. Los campos requeridos están marcados con **