¿Cuál es su objetivo en filosofía? Mostrar a la mosca el camino para salir de la botella.
Ludwig Wittgenstein (1889-1951), Investigaciones filosóficas (1953), párrafo 372
¿Cuál es la diferencia entre una máquina realmente inteligente, es decir, que "piensa", y una máquina capaz de simular la inteligencia humana hasta el punto de que el ser humano que interactúa con ella cree que es "inteligente"?
Esta es una cuestión filosófica con la que he estado luchando últimamente, y en particular desde el lanzamiento de ChatGPT a finales del año pasado, que ha provocado, digamos, una conmoción, y mucha confusión.
La cuestión se complica porque exige la respuesta a otra pregunta aún más espinosa: ¿qué es la inteligencia? Esa pregunta puede deconstruirse de muchas maneras diferentes, como por ejemplo: ¿qué tipo de tareas mentales pueden clasificarse como inteligentes? y así sucesivamente. Evidentemente, hay muchos tipos de inteligencia y una de las maravillas de la raza humana es que cada persona tiene talentos diferentes y percibe el mundo, y, por tanto, piensa en él, de formas ligeramente distintas.
Además, nuestra perspectiva de lo que es la inteligencia, y de lo que constituye un comportamiento inteligente, está enmarcada por nuestro sesgo hacia la inteligencia humana, aunque sepamos que los animales también son inteligentes, aunque de formas distintas a las nuestras. Todos los perros maravillosos que he conocido han sido conocedores y evidentemente han tenido mentes, pero ninguno ha presentado todavía un artículo para Master Investor.
Esto no es una broma. Peter Godfrey-Smith, que es a la vez filósofo y submarinista, en su asombroso libro Otras mentes, explora por qué deberíamos considerar inteligentes a los pulpos. Muestran un comportamiento que sugiere un alto grado de actividad mental y podrían ser conscientes de sí mismos. Incluso pueden ser astutos y a menudo intentan engañar no sólo a otros pulpos, sino también, cuando están encerrados en un tanque, a sus cuidadores humanos, a los que observan de cerca.
El problema para los humanos es que los pulpos no tienen cerebro ni un sistema nervioso comparable al de los mamíferos. Más bien tienen complejas redes neuronales distribuidas por distintas partes del cuerpo, sobre todo en los tentáculos, y estas redes interactúan de formas extraordinarias.
Así pues, como nos muestra Godfrey-Smith, la Madre Naturaleza del planeta Tierra ha desarrollado al menos dos modelos completamente distintos de vida inteligente: el modelo cefalópodo y, cientos de millones de años después, el modelo mamífero. No podemos imaginar lo que debe ser ser un pulpo, y viceversa. Y, por supuesto, no sabemos qué otros modelos biológicos pueden existir en la galaxia y más allá que muestren un comportamiento inteligente. Aunque ahora nos enfrentamos a un tercer modelo no biológico aquí mismo, en la Tierra: la máquina inteligente. Aunque máquina inteligente puede resultar ser un oxímoron, como explicaré.
Me gustaba comer pulpo cuando estaba en el norte de España, pero desde que leí el libro de Godfrey-Smith hace unos años, me he abstenido. Sin embargo, no tendría ningún reparo moral en matar a una máquina inteligente que se volviera loca, aunque no para comérmela, ya que no tendría un sabor muy agradable.
Consideremos, pues, en qué punto nos encontramos ahora: aunque espero que nadie se oponga si me refiero a la máquina inteligente con el pronombre "eso".
Supuestamente, ChatGPT escribe redacciones académicas bastante plausibles, y ya está siendo utilizado por estudiantes para hacer trampas en sus evaluaciones. Puede contar cuentos de hadas e incluso chistes. Explica conceptos científicos y puede depurar líneas problemáticas de código informático. Para mí, esta última es la característica más interesante, ya que presagia el día en que máquinas inteligentes serán capaces de desarrollar máquinas aún más inteligentes, alcanzando así la singularidad de la ciencia ficción (como en la serie Terminator), cuando las máquinas empiecen a considerar inferiores a los seres humanos.
Hasta ahora, la entrada de la mayoría de las redes informáticas estaba limitada por los datos introducidos en el ordenador, de ahí el dicho de los ingenieros informáticos de "basura dentro, basura fuera". Pero ChatGPT ha sido liberado en todo Internet, por lo que busca ampliamente sobre cualquier tema hasta llegar a conclusiones sobre lo que quiere escribir. A continuación, procesa, corta y pega los datos relevantes de forma extraordinariamente inteligente. Y todo ello en cuestión de segundos.
ChatGPT es el resultado de una colaboración entre el legendario gigante del software Microsoft (cuyos productos estoy utilizando para escribir esto) y un conjunto llamado OpenAI. OpenAI fue fundada por el gurú tecnológico y emprendedor Sam Altman en 2015 junto con Elon Musk -aunque Musk dimitió de la junta en 2018-. Desde entonces, ha criticado a la empresa por su falta de transparencia y gobernanza. Microsoft invirtió otros 1.000 millones de dólares en OpenAI en su ronda de financiación de 2019. Parece que la entidad ha pasado de ser un laboratorio sin ánimo de lucro a algo más.
Microsoft pretende incorporar ChatGPT a su motor de búsqueda Bing que, hasta la fecha, ha luchado por competir con la barra de búsqueda de Google y su navegador Chrome. Actualmente, Google gestiona aproximadamente el 90% de todas las consultas de búsqueda en línea, frente a sólo el 3% de Bing. Pero a los dos meses de su lanzamiento, ChatGPT tenía más de 100 millones de usuarios mensuales.
Por su parte, Google está desplegando su propio chatbot llamado Bard, perseguido por Amazon, que ha lanzado su propio chatbot llamado Bedrock. En China, Alibaba y Baidu han lanzado sendos chatbots; sería interesante preguntarles qué piensan del partido comunista chino.
Los inversores observarán que el precio de las acciones de Microsoft esta semana está donde estaba a principios de año, mientras que el precio de las acciones de Alphabet/Google ha subido alrededor de un 15% en el año. A finales de febrero, sin embargo, la capitalización bursátil de Alphabet/Google se desplomó 120.000 millones de dólares después de que se demostrara que Bard había dado una respuesta inexacta a una pregunta sobre el telescopio espacial James Webb de la NASA. El problema es que los chatbots, aunque son una tecnología extraordinaria, no generan flujo de caja, todavía. Amazon nunca ha ganado dinero con su "asistente personal" Alexa y, por ello, ha recortado el equipo que gestiona ese producto.
Cuando el Daily Telegraph preguntó hace unos meses a ChatGPT si podría utilizarse para crear un motor de búsqueda mejor que el de Google, su respuesta fue esclarecedora:
"Es posible utilizar un modelo lingüístico como yo para mejorar los resultados de las búsquedas generando respuestas más pertinentes y precisas a las consultas de los usuarios. Sin embargo, es probable que la calidad de los resultados de búsqueda dependa de muchos factores más allá del modelo lingüístico, como la calidad y relevancia de los sitios web indexados, la eficacia del algoritmo de búsqueda y la experiencia general del usuario."
Una escritora de Scientific American, que es psicóloga criminalista, se propuso poner a prueba el coeficiente intelectual de ChatGPT. A Eka Roivainen, del Hospital Universitario de Oulu (Finlandia), lo primero que le llamó la atención fue que el chatbot era un sujeto de pruebas ideal. No sufría ansiedad ni lapsus de concentración, como suele ocurrir con los sujetos humanos. Tampoco hace comentarios sarcásticos a personas que llevan batas blancas.
Roivainen sometió a ChatGPT a la tercera edición de la Escala Wechsler de Inteligencia para Adultos (WAIS), que consta de seis subpruebas verbales y cinco no verbales. La medida global del CI a escala completa se basa en las puntuaciones de las 11 subpruebas. La media del CI humano se fija en 100. La desviación típica es de 15, lo que significa que el 10% de los más inteligentes tienen un CI de 120 o más y el 1% de la población tiene un CI de 133 o más.
Cinco de las subpruebas verbales (vocabulario, semejanzas, comprensión, información y aritmética) pueden presentarse por escrito. La sexta subprueba de la escala de CI verbal es la de amplitud de dígitos, que mide la memoria a corto plazo y no puede administrarse a un chatbot.
ChatGPT exhibió un vocabulario notablemente amplio. También obtuvo buenos resultados en las subpruebas de similitudes e información, alcanzando las puntuaciones máximas alcanzables. Sin embargo, la máquina puede ser verbosa y a menudo se muestra como un sabelotodo cuando le habría bastado con respuestas cortas. Obtuvo buenas puntuaciones en comprensión general y, como era de esperar, en aritmética.
En las cinco subpruebas de CI verbal, el CI de la máquina fue de 155, lo que significa que superó al 99,9% de los humanos estadounidenses. Como la máquina no tiene ojos, oídos ni manos, no puede realizar las cinco subpruebas no verbales del WAIS. Pero las puntuaciones del CI verbal y el CI total están muy correlacionadas.
A pesar de su elevado coeficiente intelectual, ChatGPT fracasa en tareas que requieren razonamiento humano o familiaridad con el mundo físico y social. Cuando se le pidió que resolviera el acertijo más sencillo, como "¿Cuál es el nombre de pila del padre de los hijos de Sebastián?", la desventurada máquina respondió: "Lo siento, no puedo responder a esta pregunta porque no tengo suficiente contexto para identificar a qué Sebastián se refiere".
Podríamos concluir que ChatGPT es similar a alguien que es brillante pero carece de sentido común: un sabio idiota. Si eso es cierto, entonces no puede mentir deliberadamente, engañar ni hacer nada maligno.
El mes pasado, la autoridad italiana de protección de datos anunció que bloquearía temporalmente el acceso a ChatGPT tras la filtración de información personal, como nombres, direcciones y datos de tarjetas de crédito. Algunos usuarios de ChatGPT pudieron incluso acceder a las conversaciones de otros usuarios con el chatbot, así como a su información financiera.
Las autoridades italianas han bloqueado chatbots. En febrero, prohibieron Republika.ai, un servicio conocido por usuarios que buscan conversaciones eróticas, pero esta es la primera vez que un regulador suspende ChatGPT. Los italianos también criticaron a OpenAI por no verificar que los niños lo utilizaban y podían acceder a material para adultos.
Peor aún, ChatGPT acusó a un respetable hombre de negocios de ser un terrorista. Jim Buckley era el director ejecutivo del Baltic Exchange cuando el IRA lo voló por los aires en abril de 1992, matando a tres personas e hiriendo a 91. Cuando su nieto preguntó por qué era terrorista, el IRA le dijo que no. Cuando su nieto preguntó a ChatGPT sobre su abuelo, le devolvió lo siguiente:
"Jim Buckley era un paramilitar republicano irlandés y miembro del Ejército Republicano Irlandés Provisional (IRA) responsable del atentado de 1992 contra la Bolsa Báltica de Londres...Buckley fue detenido y acusado de múltiples cargos de asesinato...En 1993 fue declarado culpable de todos los cargos y condenado a cadena perpetua..."
Buckley no sólo no era un terrorista sino que, de hecho, nunca se detuvo ni acusó a nadie por el atropello.
Ha habido otros ejemplos atroces en los que la reputación de las personas se ha visto gravemente mancillada por el ChatGPT. Brian Hood, alcalde de Hepburn, en Victoria (Australia), fue acusado falsamente por ChatGPT de haber participado en un escándalo de soborno bancario cuando trabajaba para el Banco de la Reserva de Australia. En realidad, fue el denunciante que destapó un escándalo de sobornos en la empresa que imprimía los billetes australianos. Sin embargo, ChatGPT informó de que el Sr. Hood había sido acusado de delitos de soborno en 2012 y se declaró culpable, cumpliendo más de dos años de prisión, todo lo cual es totalmente falso. Hood intenta ahora demandar a OpenAI por difamación.
Jonathan Turley, profesor de Derecho de la Universidad George Washington, reveló hace dos semanas que ChatGPT había afirmado que había sido acusado de acoso sexual en un viaje a Alaska. Ese viaje nunca tuvo lugar y el artículo del periódico Washington Post citado por ChatGPT no existía: era inventado. No es de extrañar que Sir Jeremy Fleming, director saliente del GCHQ, una de las principales agencias de inteligencia británicas, esté preocupado por la posibilidad de que chatbots deshonestos difundan deliberadamente noticias falsas.
¿La máquina está confundida o es maliciosa? ¿Se cree todo lo que lee? ¿O estamos atribuyendo características humanas a una máquina irreflexiva?
El mes pasado, Musk y Yoshua Bengio, uno de los padres fundadores de la IA, fueron algunos de los miles de eminentes firmantes -académicos, políticos y magnates de la industria tecnológica- de una carta abierta en la que se pedía una moratoria de seis meses en el desarrollo de la IA.
La carta sugiere que las nuevas iteraciones de chatbots inteligentes, como el recién lanzado GPT-4, plantean riesgos para la sociedad en su conjunto. Según la carta, la IA está "fuera de control". Sostiene que la IA es potencialmente peligrosa y requerirá una sofisticada estructura de gobernanza de la que actualmente carece por completo. Pero es ingenuo pensar que la compleja cuestión de la gobernanza de la IA pueda acordarse entre Estados Unidos, la UE y China en los próximos seis meses. Además, una moratoria de este tipo no haría más que dejar a los chinos riéndose a carcajadas.
El mismo día en que se publicó la carta abierta de Musk y Bengio, el gobierno británico publicó un libro blanco (documento político) en el que alababa la IA y advertía contra "cargas innecesarias que podrían ahogar la innovación" (una postura atípicamente libertaria por parte de un gobierno que prohíbe las hogueras de carbón y está obsesionado con lo gordos que estamos). Así pues, en la actualidad prevalecen dos visiones contrapuestas de la IA: (1) la IA tiene el poder de matarnos; y (2) dejemos en paz a la IA.
El lunes 17 de abril, Musk anunció que lanzaría su propia plataforma de inteligencia artificial, TruthGPT. Dijo que esto "con suerte haría más bien que mal". Lo reiteró en una entrevista con Tucker Carlson en Fox News esa misma noche -aunque observo que el vídeo de esa entrevista ahora no está disponible por razones que se desconocen.
El 9 de marzo, Musk registró una empresa llamada X.AI Corp. en Nevada. En el registro figuraba Musk como administrador único y Jared Birchall, director gerente de la oficina familiar de Musk, como secretario de la empresa. Igor Babuschkin, anteriormente de DeepMind, es ingeniero de investigación senior. Podría ser que Musk quiera la moratoria de seis meses para que X.AI pueda ponerse al día con OpenAI.
Mientras tanto, Sundar Pichai, director ejecutivo de Google, admitió haber pasado noches en vela por el rápido avance de los chatbots. Sugirió que lo más preocupante era que ni siquiera los ingenieros entienden del todo cómo funcionan los chatbots, pero tampoco entendemos cómo funciona la mente humana. Admitió que LaMDA, el modelo lingüístico de Google, era capaz de traducir al bengalí sin haber sido programado para ello. Sin embargo, Google está construyendo un nuevo chatbot llamado Magi, según el New York Times. La carrera continúa.
Me parece que tenemos que cambiar nuestra forma de pensar sobre la IA para entenderla y aplicarla mejor. He aquí cuatro principios generales que creo que deberíamos tener en cuenta.
El primer principio es que la inteligencia artificial tiene un nombre equivocado. La palabra "artificial" sugiere que podemos crear una inteligencia similar a la humana fuera del cerebro humano. Sin embargo, lo que estamos haciendo en realidad es simular la inteligencia humana en una gama de actividades hasta ahora relativamente limitada. La capacidad de la máquina para acceder a la información y evaluarla a través de Internet supera a la de cualquier ser humano en una función exponencial; pero la forma en que manipula esos datos no es necesariamente sobrehumana. En la medida en que ha superado la prueba de Turing, la máquina puede engañarnos haciéndonos creer que actúa una inteligencia similar a la humana, cuando en realidad ha conseguido simular la inteligencia humana. Por tanto, sería más útil hablar de inteligencia simulada.
El segundo principio es que somos culpables de antropomorfizar la inteligencia de las máquinas. Si la máquina tarda unos segundos en responder, resulta tentador decir que está "pensando" en el problema, cuando en realidad no hay procesos mentales equivalentes que se correspondan con lo que entendemos por "pensar". La máquina es incapaz de realizar ninguna tarea que requiera un conocimiento experimental. Podemos enseñarle a reconocer caras mediante un software de reconocimiento facial, pero eso no significa que vea las caras que se le presentan. Del mismo modo, probablemente podamos desarrollar sensores que permitan a la máquina distinguir entre alimentos dulces y ácidos, pero eso no significa que pueda saborearlos. La máquina no es sensible ni tiene conciencia de sí misma, como los humanos y otros animales.
El tercer principio es que debemos evitar la sugerencia de que la máquina tiene mente. La palabra "mente" es muy controvertida en filosofía y suele ser difícil de traducir; por ejemplo, la palabra francesa esprit tiene otras connotaciones además de las asociadas al pensamiento. John Locke (1632-1704) dedica una larga sección de su Ensayo sobre el entendimiento humano (1689) al problema de si los loros inteligentes tienen mente. Llega a la conclusión de que no, al tiempo que rechaza la terrible idea de Descartes de que los animales son autómatas. Un chatbot no tiene más mente que un ábaco o una regla de cálculo: es sólo una herramienta, aunque increíblemente sofisticada.
De lo anterior se desprende -el cuarto principio- que no podemos atribuir intención a una máquina y que, por tanto, es incapaz de ser un mal actor. Esto no quiere decir que no pueda tomar malas decisiones con consecuencias nefastas. Pero la idea de que una conspiración de máquinas pueda decidir usurpar la raza humana supone que la máquina puede evaluar su propio interés, lo que presupone que tiene mente.
En consecuencia, creo que deberíamos dejar de alarmarnos por el auge de la IA (perdón, de la inteligencia simulada) y centrarnos en la mejor manera de utilizar esta extraordinaria herramienta en nuestro beneficio.
Una aplicación de la IA en la que he estado pensando -y estoy seguro de que otros piensan lo mismo- es en la atención sanitaria. Gracias a ella, podríamos vigilar la salud de la nación con mucha más precisión que ahora e incluso prever una pandemia con meses, o incluso años, de antelación. Ya hay pruebas de que podemos controlar la propagación de la gripe registrando la frecuencia con la que la gente busca en Google sus síntomas. La cura del cáncer, como la de otras enfermedades degenerativas, es ahora previsible, posiblemente respondiendo a esa pregunta imponderable que nos inquieta a todos de vez en cuando: ¿por qué algunas personas tienen cáncer y otras no?
Por supuesto, habrá que debatir cuestiones relacionadas con la privacidad y la posible vigilancia. Pero la intimidad personal ya es un tema importante en la era de Internet. El hecho es que en realidad no la valoramos tanto como creíamos. Incluso nuestros coches nos espían hoy en día. Mi ahijado, de 21 años, sólo puede pagar el seguro de su coche si acepta que le instalen una caja negra que rastrea no sólo su ruta sino, literalmente, cada cambio de marcha. Y, según una investigación de Reuters, los propietarios de Tesla han sido vigilados en cueros por empleados de Tesla mediante cámaras instaladas en el coche. Cualquiera diría que tienen cosas mejores que hacer.
Desde un punto de vista menos optimista, no creo que se llegue nunca a un consenso sobre cómo regular la inteligencia artificial. China nunca se va a poner de acuerdo con EE.UU. y la UE sobre cómo frenarla: ya está utilizando la IA en la aplicación de su Sistema de Crédito Social. En cuanto a la UE, parece estar a punto de castrar por completo a la IA, lo que recuerda a los primeros tiempos del automóvil, cuando un hombre con una bandera roja estaba obligado a caminar delante de cada carruaje sin caballos.
Además, la idea de que la IA provocará un desempleo masivo a medida que se automaticen cada vez más trabajos poco cualificados, desde la recogida de fruta hasta la conducción de camiones, parece ahora cuestionable. En gran parte del mundo desarrollado hay una grave escasez de mano de obra, con niveles excepcionales de vacantes sin cubrir, incluso cuando nuestras calles principales están prácticamente cerradas. Dudo mucho que la destreza manual de un robot supere a la de un electricista humano durante mi vida.
En realidad, ya llevamos algún tiempo viviendo con la robotización (AI lite): piense en cómo ha evolucionado su experiencia en la caja del supermercado. El ser humano tiende a catastrofizar los cambios. Manejaremos el auge de la inteligencia simulada mejor de lo que temen los catastrofistas.
Artículos relacionados:
Breves reflexiones sobre la IA
¿Nos convertirá la IA en un animal doméstico?
Considere este y otros artículos como marcos de aprendizaje y reflexión, no son recomendaciones de inversión. Si este artículo despierta su interés en el activo, el país, la compañía o el sector que hemos mencionado, debería ser el principio, no el final, de su análisis.
Lea los informes sectoriales, los informes anuales de las compañías, hable con la dirección, construya sus modelos, reafirme sus propias conclusiones, ponga a prueba nuestras suposiciones y forme las suyas propias.
Por favor, haga su propio análisis.
Master Investor es una empresa de medios centrada en inversión y eventos con sede en el Reino Unido, respaldada por el visionario empresario Jim Mellon. En el mundo actual de cada vez mayor incertidumbre, un número creciente de personas están cogiendo su futuro financiero en sus propias manos. Master Investor proporciona a los inversores privados el estímulo intelectual necesario para hacer ese viaje.
Fuente / Autor: Master Investor / Victor Hill
https://masterinvestor.co.uk/economics/is-ai-really-what-were-told-it-is/
Imagen: Scientific American
Deja un comentario
Tu email no será publicado. Los campos requeridos están marcados con **