La inteligencia artificial (IA) no puede distinguir la realidad de la ficción. Tampoco es creativa ni puede crear contenidos novedosos, sino que repite, reempaqueta y reformula lo que ya se ha dicho (pero quizá de formas nuevas).

Estoy seguro de que alguien discrepará con esto último, quizá señalando el hecho de que la IA puede generar claramente, por ejemplo, nuevas canciones y letras. Estoy de acuerdo, pero no lo entiendo. La IA produce una letra de canción "nueva" únicamente a partir de los datos de letras de canciones anteriores y luego utiliza esa información (los patrones descubiertos inductivamente en ella) para generar lo que a nosotros nos parece una canción nueva (y puede muy bien serlo). Sin embargo, no hay arte ni creatividad. Es sólo un refrito estructural de lo que ya existe.

Por supuesto, podemos debatir hasta qué punto el ser humano puede tener pensamientos verdaderamente novedosos y si el aprendizaje humano puede basarse única o principalmente en la mímica. Sin embargo, aunque estuviéramos de acuerdo -por el bien del argumento- en que todo lo que sabemos y hacemos es mera reproducción, los humanos tenemos una capacidad limitada para recordar con exactitud y cometeremos errores. También rellenamos huecos con lo que subjetivamente (no objetivamente) tiene sentido para nosotros (¿alguien quiere el test de Rorschach?). Incluso en este escenario tan limitado, con el que no estoy de acuerdo, los humanos generamos novedades más allá de lo que la IA es capaz de hacer.

Tanto la incapacidad de distinguir los hechos de la ficción como la atadura inductiva a patrones de datos existentes son problemas que pueden aliviarse programáticamente, pero que están abiertos a la manipulación.

Cuando Google lanzó su IA Gemini en febrero, inmediatamente quedó claro que la IA tenía una agenda woke. Entre otras cosas, se negaba a mostrar imágenes de personas blancas (incluso cuando se le pedía que mostrara imágenes de los Padres Fundadores).

El gurú de la tecnología e inversor de Silicon Valley Marc Andreessen lo resumió en X (antes Twitter): "Sé que es difícil de creer, pero la IA de Big Tech genera los resultados que genera porque está ejecutando precisamente la agenda ideológica, radical y sesgada de sus creadores. El resultado aparentemente extraño es 100% intencionado. Funciona tal y como fue diseñada".

Efectivamente, estas IAs tienen un diseño que va más allá de los motores básicos de categorización y generación. Las respuestas no son perfectamente inductivas o generativas. En parte, esto es necesario para que la IA sea útil: se aplican filtros y reglas para asegurarse de que las respuestas que genera la IA son apropiadas, se ajustan a las expectativas del usuario y son precisas y respetuosas. Dada la situación legal, los creadores de IA también deben asegurarse de que la IA no viola, por ejemplo, las leyes de propiedad intelectual ni incurre en incitación al odio. La IA también está diseñada (dirigida) para que no se vuelva loca ni ofenda a sus usuarios (¿recuerdas a Tay?).

Sin embargo, como se aplican esos filtros y el "comportamiento" de la IA ya está dirigido, es fácil llevarlo un poco más lejos. Después de todo, ¿cuándo es una respuesta demasiado ofensiva frente a ofensiva pero dentro de los límites del discurso permisible? Es una línea fina y difícil que debe especificarse programáticamente.

También abre la posibilidad de dirigir las respuestas generadas más allá de la mera garantía de calidad. Con los filtros ya instalados, es fácil hacer que la IA haga afirmaciones de un tipo específico o que empujen al usuario en una dirección determinada (en términos de hechos, interpretaciones y visiones del mundo seleccionados). También se puede utilizar para dar a la IA una agenda, como sugiere Andreessen, por ejemplo, hacer que despierte implacablemente.

Así pues, la IA puede utilizarse como una eficaz herramienta de propaganda, algo que han reconocido tanto las empresas que las crean como los gobiernos y organismos que las regulan.

Los Estados llevan mucho tiempo negándose a admitir que se benefician de la propaganda y que la utilizan para dirigir y controlar a sus súbditos. Esto se debe en parte a que quieren mantener un barniz de legitimidad como gobiernos democráticos que gobiernan basándose en las opiniones de la gente (en lugar de moldearlas). La propaganda suena mal; es un medio de control.

Sin embargo, se dice que los enemigos del Estado -tanto nacionales como extranjeros- comprenden el poder de la propaganda y no dudan en utilizarla para provocar el caos en nuestra, por lo demás, impoluta sociedad democrática. El gobierno debe salvarnos de tal manipulación, afirman. Por supuesto, rara vez se detiene en la mera defensa. Lo vimos claramente durante la pandemia de los cóvidos, en la que el gobierno, junto con las empresas de medios sociales, prohibió expresar opiniones que no fueran la línea oficial (véase Murthy contra Missouri).

La IA es tan fácil de manipular con fines propagandísticos como los algoritmos de las redes sociales, pero con la ventaja añadida de que no se trata sólo de las opiniones de la gente y de que los usuarios tienden a confiar en que lo que informa la IA es cierto. Como vimos en el artículo anterior sobre la revolución de la IA, esta no es una suposición válida, pero no deja de ser una opinión muy extendida.

Si la IA puede ser instruida para que no comente ciertas cosas que los creadores (o reguladores) no quieren que la gente vea o aprenda, entonces está efectivamente "guardada en la memoria". Este tipo de información "no deseada" no se difundirá porque la gente no estará expuesta a ella, como mostrar sólo diversas representaciones de los Padres Fundadores (como el Gemini de Google) o presentar, por ejemplo, sólo verdades macroeconómicas keynesianas para que parezca que no hay otra perspectiva. La gente no sabe lo que no sabe.

Por supuesto, nada quiere decir que lo que se presenta al usuario sea cierto. De hecho, la propia IA no puede distinguir los hechos de la verdad, sino que sólo genera respuestas en función de la dirección y únicamente basadas en lo que se le haya dado de comer. Esto deja mucho margen para tergiversar la verdad y puede hacer que el mundo crea mentiras descaradas. Por lo tanto, la IA puede utilizarse fácilmente para imponer el control, ya sea sobre un Estado, sobre los súbditos bajo su dominio o incluso sobre una potencia extranjera.

¿Cuál es entonces la verdadera amenaza de la IA? Como vimos en el primer artículo, los grandes modelos lingüísticos no evolucionarán (no pueden evolucionar) hacia la inteligencia general artificial, ya que no hay nada en la criba inductiva a través de grandes cantidades de información (creada por el ser humano) que dé lugar a la conciencia. Para ser francos, ni siquiera hemos descubierto qué es la conciencia, así que pensar que la crearemos (o que surgirá de algún modo de algoritmos que descubran correlaciones lingüísticas estadísticas en textos existentes) es bastante hiperbólico. La inteligencia general artificial sigue siendo hipotética.

Como vimos en el segundo artículo, la IA tampoco supone una amenaza económica. No hará a los humanos económicamente superfluos ni causará un desempleo masivo. La IA es un capital productivo que, por tanto, tiene valor en la medida en que sirve a los consumidores contribuyendo a satisfacer sus deseos. Una IA mal utilizada es tan valiosa como una fábrica mal utilizada: tenderá a su valor de chatarra. Sin embargo, esto no significa que la IA no vaya a tener ningún impacto en la economía. Lo tendrá, y ya lo tiene, pero no es tan grande a corto plazo como algunos temen, y probablemente sea mayor a largo plazo de lo que esperamos.

No, la verdadera amenaza es el impacto de la IA en la información. Esto se debe en parte a que la inducción es una fuente inadecuada de conocimiento: la verdad y los hechos no son una cuestión de frecuencia o probabilidades estadísticas. Las pruebas y teorías de Nicolás Copérnico y Galileo Galilei serían tachadas de improbables (falsas) por una IA entrenada en todos los escritos (mejores y más brillantes) sobre el geocentrismo de la época. No hay progreso ni aprendizaje de nuevas verdades si sólo confiamos en teorías históricas y presentaciones de hechos.

Sin embargo, es probable que este problema pueda superarse mediante una programación inteligente (es decir, aplicando reglas -y limitaciones basadas en hechos- al problema de la inducción), al menos hasta cierto punto. El mayor problema es la corrupción de lo que presenta la IA: la desinformación, desinformación y desinformación que sus creadores y administradores, así como los gobiernos y grupos de presión, le ordenan crear como medio de controlar o dirigir la opinión pública o el conocimiento.

Este es el peligro real que señalaba la ya famosa carta abierta firmada por Elon Musk, Steve Wozniak y otros: "¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que acaben superándonos en número, inteligencia, obsolescencia y reemplazo? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?".

Aparte de la referencia económicamente analfabeta a la "automatización de todos los puestos de trabajo", la advertencia es acertada. La IA no empezará a odiarnos como Terminator e intentará exterminar a la humanidad. No nos convertirá a todos en baterías biológicas, como en Matrix. Sin embargo, nos desinformará y engañará, creará el caos y puede hacer que nuestras vidas sean "solitarias, pobres, desagradables, brutales y cortas".


Artículos relacionados: 

El ego contra la máquina

Reflexiones sobre la inteligencia artificial


Considere este y otros artículos como marcos de aprendizaje y reflexión, no son recomendaciones de inversión. Si este artículo despierta su interés en el activo, el país, la compañía o el sector que hemos mencionado, debería ser el principio, no el final, de su análisis.

Lea los informes sectoriales, los informes anuales de las compañías, hable con la dirección, construya sus modelos, reafirme sus propias conclusiones, ponga a prueba nuestras suposiciones y forme las suyas propias. 

Por favor, haga su propio análisis.


El Mises Institute existe para promover la enseñanza y la investigación en la escuela austriaca de economía, y la libertad individual, la historia honesta, y la paz internacional, en la tradición de Ludwig von Mises y Murray N. Rothbard. Estos grandes pensadores desarrollaron la praxeología, una ciencia deductiva de la acción humana basada en premisas que se sabe con certeza que son verdaderas, y esto es lo que enseña y defiende. Su trabajo académico se basa en la praxeología de Mises, y en la oposición consciente a los modelos matemáticos y a las pruebas de hipótesis que han creado tanta confusión en la economía neoclásica.


Fuente / Autor: Mises Institute / https://mises.org/mises-wire/separating-information-disinformation-threats-ai-revolution

Imagen: LinkedIn

COMPARTIR:

¡Este artículo no tiene opiniones!


Deja un comentario

Tu email no será publicado. Los campos requeridos están marcados con **

Buenas historias y malas valoraciones

Por qué la subida de tipos del Banco de Japón es buena para los mercados