"¿Qué pasará con la sociedad, la política y la vida cotidiana cuando algoritmos no conscientes, pero altamente inteligentes, nos conozcan mejor que nosotros mismos?"

Frase final de Homo Deus (2016), de Yuval Noah Harari.

Podría haber sido un drama escrito por un chatbot: extraño, inesperado y con una conclusión curiosa e incluso torpe. Sin embargo, fue ideado por humanos y ocurrió de verdad.

El viernes 17 de noviembre, la junta directiva de OpenAI -el grupo de cerebritos que desarrolló el formidable chatbot de inteligencia artificial ChatGPT, lanzado en noviembre del año pasado y con el que todos nos hemos familiarizado este año- despidió al cofundador y consejero delegado de la empresa, Sam Altman.

Por si has conseguido ir por la vida sin haber oído hablar de él, Samuel Harris Altman, de 38 años, un hombre que abandonó la Universidad de Stanford para lanzar una red social cuando sólo tenía 19, está considerado el Wolfgang Amadeus Mozart del aprendizaje automático. Se le ha descrito como "el rostro de la IA". La revista Time lo nombró a principios de este año una de las 100 personas más influyentes del planeta.

Altman fundó OpenAI en 2015, respaldado por la inversión de, entre otras luminarias, Elon Musk y Peter Thiel, así como de patrocinadores corporativos como Microsoft, Amazon Web Services e Infosys. Desde entonces, Altman ha convertido OpenAI en la principal potencia de la IA. Sólo Google se acerca a ChatGPT con su herramienta Bard AI, que describe como "un experimento".

La única razón que dio el consejo de OpenAI para despedir a Altman fue que no había sido "coherentemente sincero" en sus declaraciones, un lenguaje ofuscador que hizo que millones de geeks de todo el mundo especularan sobre lo que realmente estaba pasando.

Se sabía que Altman había dividido a los directivos de OpenAI en dos tribus opuestas: los "boomers" y los "doomers".

Los "boomers" creen que la IA generativa tiene la capacidad de resolver problemas insolubles y empezará a cosechar beneficios para la humanidad en la curación de enfermedades y la detención del cambio climático relativamente pronto. Pisan a fondo el acelerador.

Los catastrofistas creen que la IA generativa es intrínsecamente peligrosa para el futuro de la humanidad y no debe desarrollarse sin rigurosas salvaguardas (o, para usar la jerga, "guardarraíles"). Éstas adoptan la forma no sólo de regulación gubernamental (que fue el tema de la reciente Cumbre sobre Seguridad de la IA de Bletchley Park organizada por el gobierno británico, en la que Altman estuvo presente), sino también de restricciones internas a través de una gobernanza eficaz. Sus pies están encima del freno.

Altman se cataloga a sí mismo como un boomer. El rumor que circuló fue que Altman y los boomers habían desarrollado algún avance radical en tecnología de IA que querían comercializar de inmediato, y el consejo se asustó.

Durante el fin de semana siguiente, según el Financial Times, 747 de los 770 empleados de OpenAI -es decir, prácticamente todos sus ingenieros de software- firmaron una carta en la que amenazaban con marcharse a menos que Altman fuera readmitido inmediatamente. El domingo, Satya Nadella, consejero delegado de Microsoft, hizo saber que Altman obtendría un alto cargo en Microsoft. Por un momento pareció que Microsoft estaba a punto de adquirir todo el know-how y los recursos de OpenAI -que según un reparto de acciones entre los empleados podría valer 86.000 millones de dólares- a cambio de nada. ChatGPT ha acumulado unos 100 millones de usuarios semanales en su primer año y ya está integrado en los principales productos de Microsoft: el sistema operativo Windows, Office, la suite mundial de aplicaciones imprescindibles, y su navegador de Internet, Edge.

El miércoles siguiente, en un dramático giro de 180 grados, el consejo de administración aceptó que Altman volviera a ser consejero delegado (aunque sin un puesto en el consejo) y se reformara para convertirse en algo parecido al consejo de una empresa con ánimo de lucro. Dos miembros del consejo se marcharon y se nombraron otros nuevos: el ex Secretario del Tesoro y eminente economista Larry Summers y el ex presidente de Twitter Bret Taylor. Puede que a algunos les interese que dos mujeres, Helen Toner y Tasha McCauley (ambas vinculadas al movimiento Altruismo Eficaz que hizo famoso el fundador de la bolsa de criptomonedas FTX, Sam Bankman-Fried, ahora caído en desgracia), hayan sido sustituidas por dos hombres.

La opinión generalizada es que este cambio se produjo bajo la presión de Microsoft, aunque sus accionistas habrían preferido que la empresa hubiera contratado a todo el personal de OpenAI. Por otra parte, Microsoft y OpenAI tienen culturas corporativas muy diferentes y una operación de este tipo podría haber atraído el escrutinio de las autoridades. Microsoft puede beneficiarse de la tecnología de OpenAI sin poseerla por completo. Además, sería estratégicamente inepto por parte de Microsoft depender por completo de la tecnología de OpenAI: hay otras empresas que, con el tiempo, podrían ofrecer productos superiores. En una visita a Londres el jueves (30 de noviembre) para anunciar una inversión de 2.500 millones de dólares en nuevos centros de datos en el Reino Unido, el presidente de Microsoft, Brad Smith, afirmó que no preveía un futuro en el que Microsoft tomara el control de OpenAI.

Para entender el papel de la junta directiva en OpenAI es necesario ponerse un poco en antecedentes. Ya en 2015, los fundadores de OpenAI la establecieron como una entidad sin ánimo de lucro, cuyo propósito era "hacer avanzar la inteligencia digital de una manera que tenga más probabilidades de beneficiar a la humanidad en su conjunto, sin verse limitada por la necesidad de generar un rendimiento financiero". En un principio, la entidad se financió con 100 millones de dólares de capital inicial aportado por Elon Musk. Cuando Musk intentó tomar el control de OpenAI en 2018 y fue rechazado, decidió retirarse de la empresa y desde entonces ha creado su propia potencia de IA, xAI, que presentó su producto inicial, Grok, a principios de este mes.

A partir de entonces, OpenAI necesitó reunir nuevo capital. Para atraer a nuevos inversores, Altman creó una filial con ánimo de lucro llamada OpenAI Global LLC. Esta es la entidad en la que, según los informes, Microsoft ha invertido o planea invertir hasta 13.000 millones de dólares desde 2019. Pero esta nueva entidad siguió siendo supervisada por el consejo de la OpenAI sin ánimo de lucro.

Esta estructura ha resultado ser intrínsecamente inestable. Además, se sugiere que los miembros del consejo no tenían la experiencia ni las capacidades técnicas adecuadas para desempeñar sus funciones. Los inversores sólo invertirán en empresas que, en algún momento futuro, puedan generar beneficios. Esto significa comercializar productos por los que la gente esté dispuesta a pagar. La supervisión independiente debería ser tarea de los gobiernos y, de hecho, Estados Unidos, la UE y el Reino Unido están trabajando en ello. Justo cuando se celebraba la cumbre de Bletchley Park, la Casa Blanca emitió una orden ejecutiva sobre IA. En última instancia, la regulación gubernamental implicará la creación de nuevas instituciones.

OpenAI se creó específicamente para desarrollar el aprendizaje automático que, con el tiempo, podría simular o incluso superar la inteligencia humana (la llamada AGI, o inteligencia general artificial). Se suponía que el software sería de "código abierto", de ahí el nombre -es decir, disponible para todos-, pero desde que Microsoft empezó a invertir en OpenAI Global ya no es así.

Esta empresa siempre iba a plantear problemas éticos, sociales e incluso políticos. Incluso sus defensores más optimistas, como Altman, entienden que existe el riesgo de que una máquina inteligente no actúe en el mejor interés de los humanos. Pero los desarrolladores necesitan generar ingresos para asegurarse futuras inversiones y, por tanto, se ven presionados para comercializar la tecnología antes de que se haya probado adecuadamente. Ahí radica el dilema.

A pesar del drama en la sala de juntas, el martes 28 de noviembre se confirmó que OpenAI seguirá adelante con una oferta pública de venta de acciones de forma inminente. Los inversores actuales, como las empresas de capital riesgo Thrive Capital, Sequoia Capital y Khosla Ventures, mantienen la valoración de 86.000 millones de dólares.

Esa capitalización de mercado situaría a OpenAI entre las empresas tecnológicas más valiosas del mundo, por delante de la plataforma de pagos Stripe (50.000 millones de dólares) y Epic Games, creadora de Fortnite (32.000 millones de dólares, propiedad de Tencent), aunque muy por debajo de ByteDance, matriz de TikTok (223.500 millones de dólares) y SpaceX, que se espera que alcance una valoración de 150.000 millones de dólares en un futuro próximo. (Por cierto, eso convertirá a Elon Musk en el hombre más rico del mundo). Pero una nota de precaución: Matt Levine, columnista de Bloomberg, cree que mientras Open AI Global esté supervisada por el consejo de administración sin ánimo de lucro de la empresa matriz, seguirá siendo una inversión arriesgada.

Están pasando muchas cosas en este espacio. El mismo día que Sam Altman fue despedido, el multimillonario francés de las telecomunicaciones y la computación en nube Xavier Niel lanzó una versión francesa de OpenAI llamada Kyutai. Se trata de un laboratorio de investigación sin ánimo de lucro que desarrollará grandes modelos lingüísticos. La empresa está respaldada por el multimillonario francés Rodolphe Saadé, presidente de la naviera CMA CGM, y el ex CEO de Google Eric Schmidt. Kyutai se une a otra empresa francesa del sector, Mistral AI, también respaldada por Niel y Saadé. La idea es que Europa necesita su propio centro de IA y que éste debe tener su sede en París. En opinión de sus promotores, es la única forma de hacer frente al aplastante dominio de las grandes tecnológicas estadounidenses.

Kyutai estará dirigida por seis especialistas que han trabajado en DeepMind, Meta y Microsoft. Estará supervisado por Yann LeCun, informático francés que dirige la IA en Meta, el profesor Bernhard Schölkopf, del Instituto Max Planck de Sistemas Inteligentes, y el profesor Yejin Choi, de la Universidad de Washington.

También está Anthropic. Sus fundadores abandonaron OpenAI en 2020 por el compromiso de la empresa con la seguridad de la IA. Anthropic obtuvo inversiones de Google y Amazon y de Sam Bankman Fried, pero los miembros de su junta directiva son nombrados por un fideicomiso independiente.

Microsoft tuvo que asociarse con OpenAI porque estaba perdiendo la carrera con Google en el desarrollo de grandes modelos lingüísticos. Sin embargo, está bien situada para ganar la carrera de los modelos lingüísticos pequeños. El mes pasado, la empresa anunció el lanzamiento de Orca 2. Se trata de un modelo de lenguaje que demuestra una gran capacidad de razonamiento imitando la metodología de razonamiento paso a paso de los grandes modelos de lenguaje.

Quizá el mayor problema de la AGI por accidente cerebrovascular es que no sabemos realmente qué es. ¿Qué es exactamente lo que intentamos (o, mejor dicho, lo que intentan) conseguir? ¿Intentamos replicar la mente humana o mejorar nuestra comprensión? ¿Alguien quiere realmente una "superinteligencia"? ¿Realmente alguien quiere vivir en una sociedad en la que, como dijo Elon Musk a Rishi Sunak en la cumbre de Bletchley Park, todos los trabajos fueran realizados por máquinas inteligentes, aunque eso fuera posible? Lo dudo.

Uno de los miembros de la junta directiva que dimitió de OpenAI ha dicho que la empresa debería cerrarse por completo, ya que los riesgos son incuantificables: más vale prevenir que curar. El argumento en contra, incluso si se es un catastrofista, es que si nos alejamos del desafío, los chinos y otros seguirán desarrollando chatbots que podrían no estar regulados en absoluto.

El capitalista de riesgo Mark Andreessen, uno de los más firmes opositores de Silicon Valley a la regulación gubernamental de la IA, ha descrito a quienes advierten de los riesgos existenciales de la IA como "una secta". Yann LeCun afirmó recientemente que es "absurdo" creer que la IA pueda amenazar a la humanidad.

Y es cierto que, a pesar del bombo y platillo y la histeria, la IA en forma de ChatGPT y Bard no es actualmente más que una máquina de escribir ensayos: básicamente, un navegador con un modelo lingüístico adjunto que puede formular un argumento. Es impresionante en la medida en que puede producir en cuestión de segundos un texto que aparentemente podría haber sido escrito por un ser humano inteligente y con un alto nivel de formación. Pero no "piensa" ni tiene "opiniones". Según mi experiencia, el resultado varía en función de cómo se plantee la pregunta. No hay forma de que sea consciente de sí misma, y todavía se debate si la conciencia de una máquina es siquiera teóricamente posible. Ya he comentado aquí por qué hay razones de peso para creer que la consciencia sólo puede surgir en organismos sensibles con sistemas nerviosos y cerebros de alto nivel.

Esto no significa que se subestime el impacto transformador y perturbador de esta tecnología. El NHS ya está utilizando la IA para analizar los historiales de los pacientes y determinar cuáles corren más riesgo de ingresar en el hospital este invierno. E incluso en su primer año, ChatGPT y Bard ya han planteado problemas a los educadores. Está claro que no es aceptable que un estudiante escriba una pregunta y luego presente el resultado de un chatbot como un ensayo original para su trabajo de curso. Pero, ¿deberían las escuelas y universidades prohibir el uso de chatbots? ¿Y cómo van a saber los educadores si un trabajo ha sido escrito en gran parte por una máquina o por un estudiante diligente?

Ahora que lo pienso, ¿cómo sabes que este artículo no lo ha escrito un chatbot? Si te he hecho sonreír en algún momento, quizá puedas estar seguro de que lo he escrito yo, ya que los chatbots no tienen sentido del humor (todavía). Pero, ¿cómo estar seguro?


Artículos relacionados: 

Por qué han despedido a Sam Altman

La superinteligencia artificial que podría cambiar el mundo


Considere este y otros artículos como marcos de aprendizaje y reflexión, no son recomendaciones de inversión. Si este artículo despierta su interés en el activo, el país, la compañía o el sector que hemos mencionado, debería ser el principio, no el final, de su análisis.

Lea los informes sectoriales, los informes anuales de las compañías, hable con la dirección, construya sus modelos, reafirme sus propias conclusiones, ponga a prueba nuestras suposiciones y forme las suyas propias. 

Por favor, haga su propio análisis.


Master Investor es una empresa de medios centrada en inversión y eventos con sede en el Reino Unido, respaldada por el visionario empresario Jim Mellon. En el mundo actual de cada vez mayor incertidumbre, un número creciente de personas están cogiendo su futuro financiero en sus propias manos. Master Investor proporciona a los inversores privados el estímulo intelectual necesario para hacer ese viaje.


Fuente / Autor: Master Investor / Victor Hill

https://masterinvestor.co.uk/economics/the-ai-drama-that-intrigued-the-world/

Imagen: WIRED

COMPARTIR:

¡Este artículo no tiene opiniones!


Deja un comentario

Tu email no será publicado. Los campos requeridos están marcados con **

Es hora de decir la verdad sobre los coches eléctricos

Todo el mundo es irracional