Con la posible excepción del supuesto superconductor a temperatura ambiente LK-99, de rápido crecimiento y rápido declive, pocas cosas he visto más publicitadas que la IA generativa. Las valoraciones de muchas empresas ascienden a miles de millones, la cobertura en las noticias es literalmente constante; es de lo único que se habla desde Silicon Valley a Washington DC o Ginebra.

Pero, para empezar, los ingresos aún no están ahí, y puede que nunca lleguen. Las valoraciones anticipan mercados de billones de dólares, pero se rumorea que los ingresos reales actuales de la IA generativa son de cientos de millones. Esos ingresos podrían multiplicarse por mil, pero eso es muy especulativo. No deberíamos simplemente suponerlo.

Hasta ahora, la mayor parte de los ingresos parecen proceder de dos fuentes: la escritura semiautomática de código (a los programadores les encanta utilizar herramientas generativas como asistentes) y la escritura de texto. Creo que los programadores seguirán contentos con la asistencia de la IA generativa; su naturaleza de autocompletado es fabulosa para su línea de trabajo, y tienen la formación necesaria para detectar y corregir los errores no tan frecuentes. Y los estudiantes universitarios seguirán utilizando la IA generativa, pero sus bolsillos no son profundos (lo más probable es que recurran a competidores de código abierto).

Otros clientes potenciales de pago pueden desanimarse rápidamente. Esta mañana, el influyente inversor de capital riesgo Benedict Evans lo planteaba en una serie de posts en X (antes conocido como Twitter):


Fuente: Marcus on AI, Twitter


Mis amigos que intentaron utilizar ChatGPT para responder a consultas de búsqueda con el fin de ayudarles en su investigación académica se han enfrentado a una desilusión similar. Un abogado que utilizó ChatGPT para la investigación jurídica fue reprendido por un juez, y básicamente tuvo que prometer, por escrito, no volver a hacerlo de forma no supervisada. Hace unas semanas, una noticia sugería que el uso de GPT podría estar disminuyendo.

Si la experiencia de Evans es un canario en una mina de carbón, todo el campo de la IA generativa, al menos en las valoraciones actuales, podría llegar a un final bastante rápido. Los programadores seguirían utilizándola, y también los profesionales del marketing que tienen que escribir muchos textos para promocionar sus productos con el fin de mejorar su posicionamiento en los motores de búsqueda. Pero ni la codificación ni la redacción de textos de alta velocidad y calidad mediocre son ni remotamente suficientes para mantener los sueños de valoración actuales.

Incluso OpenAI podría tener dificultades para mantener su valoración de 29.000 millones de dólares; las empresas competidoras valoradas en miles de millones podrían acabar hundiéndose si año tras año sólo consiguen ingresos de decenas o cientos de millones. Microsoft, que ha subido casi la mitad este año, quizá en gran parte por la promesa de la IA generativa, podría sufrir una caída de sus acciones; NVIDIA, que se ha disparado aún más, también podría caer.

Roger McNamee, uno de los primeros pioneros en la inversión de riesgo en software, y yo hablábamos de esto el otro día. Quizá el único caso de uso que nos parecía realmente convincente desde el punto de vista económico era el de las búsquedas (por ejemplo, utilizar Bing con ChatGPT en lugar de Google Search), pero los problemas técnicos que plantea son inmensos; no hay razón para pensar que el problema de la alucinación vaya a resolverse pronto. Si no es así, la burbuja podría explotar fácilmente.

Pero lo que me preocupa en este momento no es sólo la posibilidad de que toda la economía de la IA generativa -aún basada más en promesas que en usos comerciales reales- sufra una corrección masiva y desgarradora, sino que estemos construyendo toda nuestra política mundial y nacional sobre la premisa de que la IA generativa cambiará el mundo de un modo que, en retrospectiva, puede resultar poco realista.

En el frente global, la administración Biden ha limitado el acceso a los chips de hardware de gama alta que son (actualmente) esenciales para la IA generativa, y ha limitado la inversión en China; China tampoco está siendo precisamente cálida hacia la cooperación global. Las tensiones son extremadamente altas, y gran parte de ellas giran en torno a los sueños sobre quién podría "ganar la guerra de la IA".

Pero, ¿y si el ganador no fuera nadie, al menos no a corto plazo?

En el frente nacional, la regulación que podría proteger a los consumidores (por ejemplo, en torno a la privacidad, la reducción de los sesgos, la exigencia de transparencia en los datos, la lucha contra la desinformación, etc.), se está viendo frenada por una presión compensatoria para asegurarse de que la IA generativa estadounidense se desarrolla lo más rápidamente posible. Puede que no consigamos las protecciones de los consumidores que necesitamos, porque estamos intentando fomentar algo que puede que no crezca como se espera.

No estoy diciendo que las políticas concretas de nadie sean erróneas, pero si la premisa de que la IA generativa va a ser más grande que el fuego y la electricidad resulta ser errónea, o al menos no se confirma en la próxima década, es ciertamente posible que acabemos con lo que en retrospectiva es un montón de tensión adicional innecesaria con China, posiblemente incluso una guerra en Taiwán, por un espejismo, junto con un fiasco a nivel de los medios sociales en el que los consumidores son explotados en las noticias, y la desinformación domina el día porque los gobiernos tenían miedo de tomar medidas enérgicas lo suficientemente fuertes. Es difícil apostar por todo esto, pero es una idea aleccionadora que espero que sea tenida en cuenta tanto en Washington como en Pekín.

En mi opinión, el error fundamental que comete casi todo el mundo es creer que la IA Generativa equivale a la AGI (inteligencia artificial de propósito general, tan inteligente y con tantos recursos como los humanos, si no más).

Probablemente, a todo el mundo en la industria le gustaría que usted creyera que la AGI es inminente. Esto alimenta su narrativa de inevitabilidad e impulsa los precios de sus acciones y las valoraciones de las empresas emergentes. Dario Amodei, CEO de Anthropic, pronosticó recientemente que tendremos AGI en 2-3 años. Demis Hassabis, director general de Google DeepMind, también ha hecho proyecciones de AGI a corto plazo.

Yo lo dudo mucho. Tenemos no uno, sino muchos problemas graves sin resolver en el núcleo de la IA generativa, que van desde su tendencia a confabular (alucinar) información falsa, a su incapacidad para interactuar de forma fiable con herramientas externas como Wolfram Alpha, a la inestabilidad de un mes a otro (lo que los hace malos candidatos para el uso de ingeniería en sistemas más grandes).

Y, para ser realistas, no tenemos ninguna razón concreta, aparte del puro tecnoptimismo, para pensar que la solución a cualquiera de estos problemas sea inminente. "Ampliar" los sistemas haciéndolos más grandes ha ayudado en algunos aspectos, pero no en otros; seguimos sin poder garantizar que un sistema determinado sea honesto, inofensivo o útil, en lugar de adulador, deshonesto, tóxico o tendencioso. Y los investigadores en IA llevan años trabajando en estos problemas. Es absurdo imaginar que de repente se resolverán todos estos problemas. Llevo 22 años quejándome de los errores de alucinación; la gente sigue prometiendo que la solución está cerca, y nunca sucede. La tecnología que tenemos ahora se basa en el autocompletado, no en la facticidad.

Durante un tiempo, esta preocupación cayó en saco roto, pero algunos líderes tecnológicos parecen haber entendido por fin el mensaje. Como muestra, este artículo publicado hace unos días en Fortune:


Fuente: Marcus on AI, Fortune


Si las alucinaciones no tienen solución, la IA generativa probablemente no va a generar un billón de dólares al año. Y si probablemente no va a generar un billón de dólares al año, probablemente no va a tener el impacto que la gente parece estar esperando. Y si no va a tener ese impacto, quizá no deberíamos construir nuestro mundo en torno a la premisa de que sí lo va a tener.


Artículos relacionados: 

¿Es la IA el principio del fin o sólo el principio?

La especulación en inteligencia artificial y sus desafíos


Considere este y otros artículos como marcos de aprendizaje y reflexión, no son recomendaciones de inversión. Si este artículo despierta su interés en el activo, el país, la compañía o el sector que hemos mencionado, debería ser el principio, no el final, de su análisis.

Lea los informes sectoriales, los informes anuales de las compañías, hable con la dirección, construya sus modelos, reafirme sus propias conclusiones, ponga a prueba nuestras suposiciones y forme las suyas propias. 

Por favor, haga su propio análisis.


Fuente / Autor: Marcus on AI / Gary Marcus

https://garymarcus.substack.com/p/what-if-generative-ai-turned-out

Imagen: The Economic Times

COMPARTIR:

¡Este artículo no tiene opiniones!


Deja un comentario

Tu email no será publicado. Los campos requeridos están marcados con **

Los traders de bonos y sus historias bajistas

El mercado alcista del oro y la plata: los años 70 frente a la actualidad