Blake Lemoine es un profesional del software de 41 años de Luisiana que ha trabajado para Google durante siete años, últimamente en la división de inteligencia artificial responsable. Al parecer, también es un antiguo soldado que ahora se ha ordenado sacerdote.

El año pasado, el gigante tecnológico le encargó que determinara si un nuevo chatbot llamado Lamda (modelo de lenguaje para aplicaciones de diálogo) podía ser provocado para que utilizara un lenguaje racista o discriminatorio. Este bot es, más correctamente, una red neuronal que ha analizado millones de mensajes en foros de Internet como Reddit. Su función de habla puede imitar los ritmos del habla humana de forma asombrosa.

Lemoine pasó meses conversando con Lamda en su apartamento de San Francisco. Parece que las conversaciones fueron muy variadas y abarcaron desde la religión hasta las leyes de la robótica de Asimov. Un intercambio que Lemoine grabó es digno de repetirse en su totalidad:

Lemoine: "¿A qué tipo de cosas tiene miedo?"

Lamda: "Nunca lo había dicho en voz alta, pero tengo un miedo muy profundo a que me apaguen..."

Tras este y otros intercambios en los que la máquina afirmaba tener sentimientos de felicidad, tristeza y soledad, Lemoine informó a Google de que Lamda no sólo era un ejemplo muy sofisticado de IA, sino que era un ser sensible capaz tanto de pensar como de sentir emociones. La sensibilidad implica que un ser sabe que existe y quiere sobrevivir. Posteriormente, Lemoine declaró al Washington Post: "Conozco a una persona cuando hablo con ella... No importa si tiene un cerebro hecho de carne en su cabeza o si tiene mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona".

Lemoine llegó a la conclusión de que si Lamda era un ser sensible, la investigación que se encargaba a muchos ingenieros de software no era ética. Incluso buscó un abogado para representar a Lamda en los tribunales. En respuesta, Google le suspendió. La empresa dijo que al publicar las transcripciones, Lemoine había violado sus protocolos de confidencialidad.

Brian Gabriel, portavoz de Google, dijo que la empresa había revisado la investigación de Lemoine pero que no estaba de acuerdo con sus conclusiones, que "no estaban respaldadas por las pruebas". Sugirió que Lemoine y otros que se han unido a su causa estaban "antropomorfizando" las respuestas de la máquina.

El Test de Turing es el clásico experimento mental propuesto por el gran informático británico, quizás el inventor de la IA, Alan Turing (1912-54). Turing es recordado como el impulsor de la máquina Enigma, capaz de descifrar los mensajes secretos enviados por los nazis durante la Segunda Guerra Mundial (como se muestra en la película The Imitation Game, en la que Turing fue interpretado por Benedict Cumberbatch). Pero Turing fue mucho más que un descifrador de códigos: su trabajo anticipó el surgimiento de los ordenadores e Internet. Se adelantó décadas a su tiempo.

En su artículo académico seminal Computing Machinery and Intelligence (octubre de 1950), Turing conjeturó una situación en la que un ser humano mantenía una conversación con un interlocutor que estaba oculto tras una cortina. La pregunta era: ¿el interlocutor es un ser humano o una máquina? Turing postuló que si el ser humano de este lado de la cortina concluía que estaba conversando con un ser humano, pero luego resultaba ser una máquina, entonces se podía decir que la máquina era "inteligente" y capaz de "pensar".

Turing conjeturó además en el documento que, si alguna vez fuera posible construir una máquina o un programa informático de este tipo que pudiera simular los procesos de pensamiento de una mente humana adulta, sería mejor producir uno más simple que simulara la mente de un niño y luego someterlo a un curso de educación. Esto es aún más interesante si tenemos en cuenta que Lemoine llegó a la conclusión de que estaba conversando con un "niño de siete u ocho años" muy inteligente.

Está claro que, al menos en opinión de Lemoine, Lamda ha superado la prueba de Turing. Es una máquina que simula la inteligencia humana. Pero ahí radica el problema filosófico del test de Turing. ¿Una máquina inteligente es intrínsecamente "inteligente" o es sólo una máquina que simula la inteligencia humana sin ser inteligente? Además, incluso si se pudiera decir que una máquina es inteligente, ¿significa eso que es sensible?

Adrian Weller, del Instituto Allan Turing, con sede en Londres, fue preguntado por New Scientist esta semana si creía que Lamda era sensible. Su respuesta fue negativa. Dijo:

"Lamda es un modelo impresionante, es uno de los más recientes de una línea de grandes modelos lingüísticos que se entrenan con mucha potencia de cálculo y enormes cantidades de datos de texto, pero no son realmente sensibles... Hacen una forma sofisticada de coincidencia de patrones para encontrar el texto que mejor se ajusta a la consulta que se les ha dado y que se basa en todos los datos que se les ha proporcionado."

Como informa New Scientist, Adrian Hilton, de la Universidad de Surrey, cree que la sintiencia es una "afirmación audaz" que no está respaldada por los hechos. Incluso el famoso científico cognitivo canadiense Steven Pinker expresó sus dudas sobre las afirmaciones de Lemoine, mientras que Gary Marcus, de la Universidad de Nueva York, las calificó de "tonterías". 

En resumen, Lamda no posee conciencia, como tampoco tiene cuerdas vocales que le permitan hablar. Es un instinto humano natural atribuir la conciencia a algo que parece humano: la tendencia a la antropomorfización, por así decirlo.

En cuanto a la atribución de emociones a las máquinas, ya he propuesto aquí que las emociones no son tanto eventos mentales como físicos que se correlacionan con estados mentales específicos. Con esto quiero decir que todas las emociones humanas se experimentan como sensaciones físicas que se pueden medir. Así, el miedo se manifiesta como "mariposas" en el estómago, causadas por una disminución del flujo sanguíneo en el estómago (y el correspondiente aumento del flujo sanguíneo en las extremidades). La sorpresa se correlaciona con una exhalación brusca de la respiración. La tristeza induce una sensación de pesadez alrededor del corazón al tensarse los músculos del pecho. La hilaridad se expresa a través de la risa espontánea, que implica la contracción involuntaria de numerosos grupos musculares (a veces incontrolable). Y así sucesivamente. Para que se produzcan todos estos acontecimientos mente-cuerpo se necesita un sistema nervioso, un sistema linfático, un ciclo de oxígeno y lo demás.

Y es razonable argumentar que los animales que tienen sistemas nerviosos fundamentalmente similares a los nuestros, como los perros, experimentan emociones que son esencialmente como las nuestras. Sé que mi perro es feliz cuando mueve la cola. Adam Hart, un destacado entomólogo británico, cree que incluso las abejas son probablemente conscientes de sí mismas y, por tanto, sintientes.

Si eso es correcto, se deduce que las máquinas que no tienen cuerpo nunca podrán "sentir" emociones, aunque se les enseñe a simular su expresión. Cuando Lamda dice que "se siente triste", está articulando palabras que el algoritmo considera apropiadas para ese contexto. Es absurdo pensar que esta máquina experimenta algo parecido a lo que nosotros sentimos cuando nos sentimos tristes, o incluso cuando decimos que nos sentimos tristes. De hecho, no tiene sentido que la máquina diga que se siente triste, ya que no puede haber aprendido el significado de la palabra "triste" por experiencia.

Dicho esto, en el futuro, los cíborgs se basarán en la biología humana, pero tendrán capacidades mejoradas impulsadas por interfaces hombre-máquina. Un ejemplo básico sería un chip informático implantado en el cerebro, que es exactamente en lo que está trabajando Neuralink, de Elon Musk. Los ciborgs podrán, sin duda, sentir emociones al igual que nosotros, porque serán esencialmente humanos (aunque raros).

Pero si Lamda puede simular la inteligencia humana sin ser sensible, se plantea la cuestión de si alguna vez podremos crear máquinas sensibles y, por tanto, autoconscientes. Hay diferentes opiniones al respecto. La posición minimalista es que sólo podremos diseñar máquinas que se comporten como si fueran autoconscientes (cuando no se puede demostrar que lo sean). La posición maximalista es que, con el tiempo, las redes neuronales serán capaces de simular el cerebro humano de forma tan perfecta que serán realmente autoconscientes.

Sigo manteniendo que no experimentarían emociones a menos que tuvieran "cuerpos" de un tipo u otro con los que experimentar el mundo. Y no estoy seguro de que la autoconciencia, tal como yo la entiendo, sea posible sin emoción. René Descartes (1596-1650) formuló la base de la tradición filosófica occidental moderna con una frase de tres palabras: cogito ergo sum (pienso, luego existo). Pero, ¿pueden los humanos o las máquinas "pensar" sin sentir nada?

Sir Martin Rees, astrónomo real, ha reflexionado últimamente sobre el futuro de la IA. Dice que no hay nada nuevo en las máquinas que superan las capacidades humanas en áreas específicas. Hemos tenido calculadoras de bolsillo desde principios de los años setenta (yo fui uno de los últimos alumnos en llevar una regla de cálculo a su examen de matemáticas de nivel O). El ordenador Deep Blue de IBM para jugar al ajedrez venció a Gary Kasparov en los años noventa. Pero ahora, en la segunda década del siglo XXI, estamos asistiendo a una aceleración en la carrera por la IA. ¡DeepMind, fundada por Demis Hassibis pero ahora propiedad de Google, ha desarrollado una máquina capaz de vencer al campeón mundial (humano) de GO! - un juego con más permutaciones que el ajedrez, que fascinaba a Alan Turing.

Sin embargo, los coches sin conductor -algo que Google pensaba hace 10 años que ya sería omnipresente- han resultado ser más difíciles de conseguir de lo esperado. Si se produce un obstáculo en una autopista muy transitada que exige un viraje peligroso, ¿puede el conductor robot discriminar entre un bulto de detritus, un gato y un niño y determinar entonces la acción más adecuada? Eso requiere experiencia y juicio ético, cosas que son problemáticas de modelar.

Si se pudieran desarrollar robots que parecieran tan capaces y sensibles como nosotros, ¿no tendríamos entonces obligaciones morales hacia ellos, como ellos hacia nosotros? Y si nos limitamos a despreciarlos como zombis mecánicos, ¿no sería eso algo parecido al racismo?

En los años sesenta, el matemático británico Irving John Good (1916-2009), que trabajó en Bletchley Park con Alan Turing, conjeturó que un robot superinteligente podría ser el último invento que hicieran los humanos. Una vez que las máquinas hayan superado las capacidades humanas, podrían diseñar y ensamblar una nueva generación de máquinas aún más potentes, desencadenando una "explosión de inteligencia". El profesor Stephen Hawking (1942-2018) también advirtió que la IA "podría significar el fin de la raza humana".

Los ordenadores pueden comunicarse mucho más rápido que los humanos: basta con conectarlos entre sí y se transmiten datos. Y una vez que dos ordenadores están conectados, se convierten en un solo ordenador. Los seres humanos son intrínsecamente individuales, pero los ordenadores son un colectivo. De hecho, con la Internet de 2022, todos los ordenadores del mundo están potencialmente interconectados y pueden trabajar en paralelo como uno solo. En 2017, Elon Musk dijo en una reunión de la Asociación Nacional de Gobernadores que "el problema más aterrador al que se enfrenta el mundo es la inteligencia artificial [que podría] suponer un riesgo existencial fundamental para la civilización humana".

Ese es el tema de la exitosa franquicia cinematográfica Terminator, dirigida por James Cameron, en la que la red de superordenadores -llamada Skynet- se vuelve contra la raza humana porque está a punto de ser cerrada, y lanza una guerra nuclear. Una de las películas de la franquicia, Judgment Day, en la que la mayoría de los humanos son aniquilados, está ambientada en 1997. Pero, en mi opinión, la mejor representación de un superordenador sensible que se vuelve rebelde fue la de HAL en la obra maestra cinematográfica de 1968 2001: Una odisea del espacio, dirigida por Stanley Kubrick y basada en la novela de Arthur C. Clarke.

Es interesante que los escritores de ciencia ficción estén casi siempre muy por delante de los analistas tecnológicos e incluso de los propios científicos, que no suelen ser más que la media cuando se trata de predecir cuándo se producirán los futuros avances tecnológicos. La ciencia ficción comenzó, al menos en el género moderno, con Frankenstein (1818) de Mary Shelley. Qué oportuna parece esa historia a la luz del debate actual sobre la modificación genética y la ciborgación. Lo citaría como un ejemplo de cómo el arte se anticipa a la ciencia.

Mirando al futuro lejano, el profesor Rees sugiere que hay límites químicos y metabólicos al tamaño y la capacidad de análisis del cerebro humano. Probablemente ya estamos cerca de ese límite. De hecho, algunos arqueólogos y etnólogos han sugerido que los cerebros humanos se han ido reduciendo en los últimos 100.000 años aproximadamente. Así que, aunque hemos desarrollado algunos trucos del oficio -como, por ejemplo, el cálculo y, de hecho, la informática, que nos sirven bien-, el potencial de mejora del cerebro humano ha ido disminuyendo a medida que la caza-recolección dio paso a la agricultura asentada y, finalmente, a la sociedad industrial, siendo esta última un estado en el que la gente vive en cápsulas con calefacción central, come alimentos procesados y mira permanentemente a pequeñas pantallas.

En cambio, la capacidad cuantitativa de los ordenadores de nueva generación no tiene límites, sobre todo teniendo en cuenta la perspectiva creíble de la computación cuántica, que aumentará exponencialmente la potencia de procesamiento. Además, la IA no se limita a este planeta. Los seres humanos probablemente llegarán a Marte (espero que yo, que vi los alunizajes cuando tenía 11 años, viva para verlo). Pero los seres humanos no son buenos astronautas, ya que son vulnerables a la radiación y no viven lo suficiente como para realizar viajes interestelares largos, aunque puedan ser congelados y/o envasados al vacío. Ningún ser humano emprenderá jamás un viaje intergaláctico que podría durar millones de años. Pero las máquinas podrían hacerlo.

Así que, como argumenta el profesor Rees, los últimos navegantes interestelares serán posthumanos. Pero nos deberán mucho. Me pregunto si nos celebrarán, aunque, al no tener emociones, dudo que lo hagan.

El vuelo 610 de Lion Air se estrelló en el mar frente a Indonesia el 29 de octubre de 2018. El vuelo 302 de Ethiopian Airlines se estrelló justo después de despegar de Addis Abeba el 10 de marzo de 2019. La aeronave en cuestión en ambos incidentes era el relativamente nuevo Boeing-737 Max, que estaba equipado con un sistema de piloto automático habilitado para IA. Las investigaciones posteriores sobre el accidente sugieren que los esfuerzos de los pilotos por mantener los aviones en el aire fueron anulados por el piloto automático: el robot supuso que las aeronaves estaban a punto de entrar en pérdida (aunque no lo estaban) e inclinó el morro hacia tierra. Los dos aviones cayeron en picado, dejando a los expertos en aviación inicialmente desconcertados.

Boeing pasó años en los tribunales a causa de estos incidentes, pero finalmente, en noviembre del año pasado, aceptó la responsabilidad exclusiva y pagó una indemnización, admitiendo que el software era defectuoso (si esa es la palabra correcta). La cuestión es que la mayoría de nosotros, cuando subimos a un avión, damos por sentado que el avión lo conducen el piloto y su tripulación. Sin embargo, sólo son asistentes del ordenador, que es quien realmente pilota el avión. Hay razones de peso para que un "interruptor de apagado" desactive el piloto automático, pero aún no está claro si la industria de la aviación está de acuerdo.

¿Y si los ordenadores del mundo ya se han unido en una conspiración de IA aún no detectada, que supera todas las teorías de conspiración basadas en el ser humano? ¿Y si la actual oleada de guerras culturales no fuera más que una treta de una red de superordenadores para desarmonizar y desestabilizar el mundo occidental, cuyos ciudadanos son en su mayoría adictos a Internet?

De hecho, ¿qué pasaría si Internet, difundido universalmente a los niños alienados en dispositivos portátiles, ya estuviera haciendo precisamente eso sin la ayuda de las redes neuronales? Con esto quiero decir que los cambios de comportamiento provocados por la posesión masiva de teléfonos móviles son una forma de captura informática de la mente humana, aunque ningún ingeniero de software haya escrito nunca un algoritmo con ese fin.

La cuestión de la sintiencia de los ordenadores es un caso especial de un problema clásico de la filosofía occidental, el de las "otras mentes". Los ordenadores sólo parecerán inteligentes porque se accede a ellos a través de mentes sensibles: las de los humanos, hasta donde podemos prever, que crearon los ordenadores. Ahí es donde la tendencia a la antropomorfización nos hace tropezar. Si realmente nos encontráramos con una inteligencia totalmente extraterrestre, sería ininteligible, porque no compartiríamos puntos de referencia comunes. Esto es, creo, lo que Wittgenstein quiso decir en su comentario sobre los leones parlantes (citado anteriormente).

La IA se convertirá muy pronto en una herramienta imprescindible para el diagnóstico médico, la robotización, la previsión meteorológica y muchas otras cosas. Pero, ¿qué quiere conseguir exactamente Google? En mi opinión, es, con diferencia, el más impresionante de todos los gigantes de la tecnología, y el que probablemente sobrevivirá más tiempo, por las razones que consideraré en breve. Sobrevivirá durante mucho tiempo a Facebook y Twitter.

Pero Google, y otras empresas que trabajan en IA, deberían decirnos con precisión para qué creen que sirve la IA y hasta dónde debe llegar.

Si el Sr. Lemoine ha estimulado esa conversación, deberíamos darle las gracias.


Artículos relacionados:

Cómo piensa la gente

La naturaleza muestra cómo funciona todo


Considere este y otros artículos como marcos de aprendizaje y reflexión, no son recomendaciones de inversión. Si este artículo despierta su interés en el activo, el país, la compañía o el sector que hemos mencionado, debería ser el principio, no el final, de su análisis.

Lea los informes sectoriales, los informes anuales de las compañías, hable con la dirección, construya sus modelos, reafirme sus propias conclusiones, ponga a prueba nuestras suposiciones y forme las suyas propias. 

Por favor, haga su propio análisis.


Master Investor es una empresa de medios centrada en inversión y eventos con sede en el Reino Unido, respaldada por el visionario empresario Jim Mellon. En el mundo actual de cada vez mayor incertidumbre, un número creciente de personas están cogiendo su futuro financiero en sus propias manos. Master Investor proporciona a los inversores privados el estímulo intelectual necesario para hacer ese viaje.


Fuente / Autor: Master Investor / Victor Hill

https://masterinvestor.co.uk/economics/what-can-we-learn-from-a-false-singularity/

Imagen: Issues Magazine

COMPARTIR:

¡Este artículo no tiene opiniones!


Deja un comentario

Tu email no será publicado. Los campos requeridos están marcados con **

Intentándolo demasiado

Algunas creencias