Según Morgan Stanley, las acciones de Tesla valen 400 dólares, y no tiene nada que ver con sus vehículos eléctricos.
Más bien, esa fuerte valoración se debe a su superordenador "Dojo", que podría crear un valor de 500.000 millones de dólares al mejorar las capacidades de inteligencia artificial del fabricante de vehículos eléctricos.
Es una cifra importante.
Y, sin embargo, subestima el enorme impacto económico potencial del superordenador de Tesla.
Dojo podría revolucionar toda la industria de la IA, valorada en 15,7 billones de dólares, y desencadenar una nueva era de innovación y crecimiento en inteligencia artificial.
Por eso hay que actuar ahora e invertir en las mejores acciones de IA del mercado antes de que Dojo de Elon Musk transforme la economía mundial.
Dojo es el superordenador de Tesla y el "cerebro" de sus operaciones de conducción autónoma. Procesa los datos de conducción de los coches Tesla en la carretera y desarrolla algoritmos de conducción autónoma que potencian las funciones de vehículo autónomo de los coches Tesla.
Dojo es la IA de Tesla.
Es una tecnología asombrosa. ¿Cómo pueden los coches Tesla conducir de forma autónoma mientras que otros coches carecen de capacidad de conducción autónoma completa? La respuesta es Dojo.
Es una IA dedicada a crear vehículos autónomos, con acceso al mayor conjunto de datos de conducción autónoma del mundo de los coches Tesla, y construida y perfeccionada por algunos de los mejores ingenieros de IA del mundo.
Dojo es posiblemente la tecnología más importante para desbloquear el futuro del mercado mundial del automóvil.
Pero es mucho más que eso.
Marca un punto de inflexión para la "revolución de la IA".
Hasta ahora, la mayoría de las aplicaciones de IA se han creado en GPU de Nvidia. La empresa de semiconductores se ha consolidado como el fabricante de los mejores chips de IA de propósito general, y la mayoría de los principales modelos de IA del mundo se han creado con chips de Nvidia.
Dojo representa una desviación significativa de esa norma.
Tesla solía alimentar todas sus operaciones de conducción autónoma con un gran superordenador basado en GPU de Nvidia. Dojo va a sustituirlo.
En otras palabras, Tesla, como todo el mundo, confiaba en las GPU de Nvidia para impulsar su inteligencia artificial. Ahora, sin embargo, ha desarrollado su propio superordenador que utiliza sus propias GPU personalizadas para sus propias necesidades de IA.
Y eso nos lleva al tema central de la segunda oleada del "boom de la IA" que Dojo está iniciando ahora mismo: la personalización.
La primera oleada del "boom de la IA" tuvo lugar en 2023, y se trataba de una carrera por construir modelos de IA amplios y de propósito general. No les importaba qué modelos de IA estaban construyendo; simplemente todos querían construir algún tipo de modelo de IA para poner el pie en la puerta del "Boom de la IA".
Pero Dojo marca un cambio crítico hacia la segunda ola del "Boom de la IA", una que transformará la industria en 2024 y más allá.
Dojo no es un modelo de IA amplio y de propósito general. Se trata de un modelo de IA restringido, específico para una tarea y centrado exclusivamente en la creación de IA para coches autónomos.
Es IA personalizada.
Tesla... SpaceX... PayPal: estas son tres de las mayores innovaciones de Elon Musk.
Pero lo que la mayoría de la gente no sabe es que Musk acaba de dar el pistoletazo de salida a una nueva innovación que va camino de ser mayor que SpaceX, PayPal y Tesla juntos.
De hecho, el CEO de Google llegó a decir que el núcleo detrás de esta innovación es: "Más profundo que el fuego, la electricidad o Internet".
Para alimentar esta IA personalizada, Tesla está construyendo sus propios chips.
No es la única.
Amazon ha desarrollado dos chips de IA personalizados específicamente para crear modelos de IA en el servicio en la nube de la empresa, AWS.
Uno es para la inferencia de alto rendimiento (AWS Inferentia) y el otro para el entrenamiento de aprendizaje profundo (AWS Trainium). Juntos, Amazon cree que estos dos chips de IA podrían impulsar todas las funciones de IA en AWS en el futuro.
Mientras tanto, Alphabet ya está en la quinta generación de sus unidades de procesamiento tensorial personalizadas, o TPU, para el desarrollo de redes neuronales. Estos chips de IA personalizados se construyen específicamente para optimizar la integración de la IA en las búsquedas y la publicidad.
Microsoft está haciendo una gran apuesta por sus propios diseños de chips, con uno centrado en la inteligencia artificial y otro en la computación en la nube, ya que busca competir con los gigantes de los semiconductores y reducir su dependencia de otras empresas.
El chip Maia 100 está destinado a cargas de trabajo de IA y podría competir con las ofertas de Nvidia. El chip estará disponible para los clientes de la nube Azure y ya se está probando con los productos de IA de Bing y Office.
Uno de los usuarios más destacados del Maia 100 es OpenAI, que cuenta con el respaldo de miles de millones de dólares de inversión de Microsoft. OpenAI está probando el chip para sus ambiciosos y vanguardistas proyectos de IA.
El otro chip, llamado Cobalt, está diseñado para tareas de computación en nube, como ejecutar aplicaciones de software y bases de datos. Está previsto que tanto Maia como Cobalt, fabricados con tecnología de 5 nanómetros por Taiwan Semiconductor, aparezcan en los centros de datos de Microsoft el año que viene.
Por último, pero no por ello menos importante, Meta está desarrollando su propio chip personalizado para ejecutar modelos de IA, bautizado como chip MTIA (Meta Training and Inference Accelerator). El chip MTIA forma parte de una familia de chips que Meta está desarrollando para cargas de trabajo tanto de entrenamiento como de inferencia. [Nota del editor: El entrenamiento es el proceso de enseñar a un modelo de IA a realizar una tarea, mientras que la inferencia es el proceso de utilizar un modelo entrenado para hacer predicciones o tomar decisiones - John Kilhefner, Senior Managing Editor].
El chip MTIA está diseñado específicamente para cargas de trabajo de inferencia, que son omnipresentes en Meta y constituyen la base de una amplia gama de casos de uso, como la comprensión de contenidos, los feeds, la IA generativa y la clasificación de anuncios. Al replantearse cómo innovar en toda su infraestructura, Meta está creando una base escalable para potenciar oportunidades emergentes en áreas como la IA generativa y el metaverso.
Así que, amigos, las empresas tecnológicas más importantes del mundo han movido ficha. Ya han visto cómo los mayores gigantes tecnológicos están apostando fuerte por la IA. Ya no se conforman con depender de Nvidia.
Quieren dominar la carrera de la IA en sus propios términos.
Como tal, habrá una gran reorganización en la industria.
Los antiguos ganadores de 2023, como Nvidia, no brillarán tanto mientras surgen nuevos aspirantes.
¿Quiénes emergerán como los nuevos líderes de la revolución de la IA de 15,7 billones de dólares?
No querrá perderse la oportunidad de averiguarlo.
Artículos relacionados:
El destino o la riqueza de las naciones: IA, Robótica y Automatización
Considere este y otros artículos como marcos de aprendizaje y reflexión, no son recomendaciones de inversión. Si este artículo despierta su interés en el activo, el país, la compañía o el sector que hemos mencionado, debería ser el principio, no el final, de su análisis.
Lea los informes sectoriales, los informes anuales de las compañías, hable con la dirección, construya sus modelos, reafirme sus propias conclusiones, ponga a prueba nuestras suposiciones y forme las suyas propias.
Por favor, haga su propio análisis.
InvestorPlace es una de las mayores y más antiguas empresas independientes de análisis financiero de Estados Unidos. Creada hace más de 40 años por un visionario de los negocios llamado Tom Phillips, publica, bajo suscripción, análisis detallados y recomendaciones para inversores autónomos, asesores financieros y gestores de dinero.
Fuente / Autor: InvestorPlace / Luke Lango
Imagen: RTTNews+
Deja un comentario
Tu email no será publicado. Los campos requeridos están marcados con **