Los reguladores quieren acabar con el futuro de la inteligencia artificial. Esa es mi única conclusión tras una semana vertiginosa de ataques reguladores a escala mundial.

Empezó el lunes con la esperada publicación de la orden ejecutiva del Presidente Joe Biden sobre "el desarrollo y uso seguro y fiable de la inteligencia artificial". En poco menos de 20.000 palabras, establece un esfuerzo gigantesco de todo el gobierno que "establece nuevas normas para la seguridad de la IA, protege la privacidad de los estadounidenses, avanza en la equidad y los derechos civiles, defiende a los consumidores y los trabajadores, promueve la innovación y la competencia, avanza el liderazgo estadounidense en todo el mundo, y más."

"Y más". No muy diferente de las nueve palabras más aterradoras de Ronald Reagan en lengua inglesa ("Soy del Gobierno, y estoy aquí para ayudar"), siempre deberíamos alarmarnos cuando los reguladores empiezan a hablar de "y más". Pero mucho más es lo que tenemos esta semana.

Al otro lado del siempre cálido charco, en el Reino Unido, el Primer Ministro Rishi Sunak celebró una Cumbre sobre Seguridad de la IA en Bletchley Park, el famoso centro de investigación donde Alan Turing y un variopinto grupo de los primeros criptógrafos e informáticos descifraron los sistemas de cifrado de la Alemania nazi y ayudaron a Gran Bretaña y a los Aliados a ganar la Segunda Guerra Mundial.

Lo más destacado de la cumbre fue la "Declaración de Bletchley", firmada por 28 países y la Unión Europea, en la que se afirmaba que "es necesario abordar la protección de los derechos humanos, la transparencia y la explicabilidad, la equidad, la rendición de cuentas, la regulación, la seguridad, la supervisión humana adecuada, la ética, la mitigación de los prejuicios, la privacidad y la protección de datos". Fue alentador ver a China, Arabia Saudí, Nigeria y Emiratos Árabes Unidos firmar la declaración - si tan sólo abordaran los "derechos humanos", la "transparencia", la "responsabilidad" y la "ética" en sus propias actividades.

Pero estoy divagando. Al otro lado del Canal de la Mancha, la Unión Europea avanzó en su exhaustiva Ley de Inteligencia Artificial, una legislación que lleva dos años debatiéndose pero que está cada vez más cerca de su aprobación y aplicación definitivas. El modelo regulador de la UE -cada vez más popular en todo el mundo- dividiría la IA en cuatro categorías de riesgo, de mínimo a inaceptable, e impondría requisitos de seguridad y pruebas cada vez más onerosos a medida que aumentara el riesgo. El problema es que la mayoría de las aplicaciones se consideran de "alto riesgo", incluidos los sistemas de recomendación y los algoritmos de las redes sociales. Los riesgos inaceptables están prohibidos, por lo que los usos de alto riesgo son los más regulados dentro del sistema.

Por último, el ex CEO de Google Eric Schmidt y cofundador de DeepMind Mustafa Suleyman escribió un artículo de opinión en The Financial Times hace dos semanas pidiendo un "IPCC para la IA". El objetivo, junto con el Órgano Consultivo de Alto Nivel sobre Inteligencia Artificial de las Naciones Unidas, es hacer por la IA lo que el Grupo Intergubernamental de Expertos sobre el Cambio Climático ha hecho por el calentamiento de las temperaturas, es decir, dictaminar científicamente qué está ocurriendo exactamente con la inteligencia artificial y redactar informes de consenso. El objetivo es salvarnos de la IA tanto como el IPCC nos ha salvado del cambio climático.

Todos los reguladores (¡hasta ahora!) hacen hincapié en las perspectivas positivas de la IA y argumentan que no quieren proscribir el progreso de esta tecnología. Desde el principio de la orden de Biden, "La inteligencia artificial (IA) encierra un extraordinario potencial tanto prometedor como peligroso. El uso responsable de la IA tiene el potencial de ayudar a resolver retos urgentes al tiempo que hace nuestro mundo más próspero, productivo, innovador y seguro". Eso es paralelo a la línea inicial de la Declaración de Bletchley, que dice que "la Inteligencia Artificial (IA) presenta enormes oportunidades globales: tiene el potencial de transformar y mejorar el bienestar humano, la paz y la prosperidad."

Sin embargo, todas estas medidas reguladoras se han producido en los últimos días. Para una novedosa familia de tecnologías que apenas han entrado en el mercado (ChatGPT de OpenAI se lanzó hace menos de un año y Stable Diffusion hace poco más de un año), es pasmosa la enloquecida y desquiciada presteza con la que los políticos intentan regular globalmente una tecnología que hace unos meses ni siquiera sabíamos que funcionaba.

¿A qué se debe esta intensidad? Por lo que puedo suponer, se debe a un miedo imaginativo impulsado por las películas de suspense de Hollywood. Por ejemplo, este artículo publicado esta semana en la revista Time:

"La cuestión de la inteligencia artificial parecía ineludible para Biden. Un fin de semana, en Camp David, se relajó viendo la película de Tom Cruise 'Misión: Imposible - Dead Reckoning Part One'. El villano de la película es una IA inteligente y malvada conocida como "la Entidad" que hunde un submarino y mata a su tripulación en los primeros minutos de la película.

'Si no le preocupaba ya lo que podía ir mal con la IA antes de esa película, vio muchas más cosas de las que preocuparse', dijo [el jefe adjunto de gabinete de la Casa Blanca **bruce reed**], que vio la película con el presidente."

Mission: ¡Imposible! Y subrayo lo de "imposible". Lo frustrante de este miedo generalizado es que, aunque las tecnologías de IA generativa nos ofrecen nuevas y emocionantes capacidades, la evolución de la IA es sinónimo de evolución del código de software y de digitalización de la toma de decisiones humana. Esta es la parte más resbaladiza del régimen regulador activado esta semana: ni siquiera existe una buena definición de lo que es la inteligencia artificial.

Tomemos como ejemplo la orden ejecutiva de Biden, que dice: "El término 'modelo de IA' se refiere a un componente de un sistema de información que implementa tecnología de IA y utiliza técnicas computacionales, estadísticas o de aprendizaje automático para producir resultados a partir de un conjunto dado de entradas". Matemáticas, en otras palabras.

Una de las secciones de la orden exige que el gobierno "Proporcione una orientación clara a los propietarios, los programas de beneficios federales y los contratistas federales para evitar que los algoritmos de IA se utilicen para exacerbar la discriminación." En primer lugar, sabemos por libros como The Color of Law: A Forgotten History of How Our Government Segregated America, de Richard Rothstein, que los seres humanos han hecho un trabajo bastante bueno creando sistemas de vivienda increíblemente discriminatorios, sin necesidad de ordenadores o algoritmos de IA.

Pero preocupémonos de la dimensión humana más adelante y centrémonos en lo digital: ¿dónde está exactamente la línea que separa el código de software tonto de la inteligencia artificial? En Nueva York, es práctica común que los caseros adjudiquen a los solicitantes de alquiler con lo que se conoce como la fórmula 40x: los ingresos anuales documentados deben ser 40 veces el alquiler mensual del apartamento. Así, un estudio básico de 3.000 dólares al mes requiere unos ingresos anuales de 120.000 dólares. Esta fórmula se incorpora a las solicitudes de vivienda como una forma de inteligencia mecánica.

La ironía, por supuesto, es que el uso de fórmulas y "modelos de IA" muy básicos fue perseguido por los propietarios precisamente porque evitaba la discriminación humana (y limitaba las demandas judiciales). En lugar de que un funcionario de alquileres humano sesgado juzgara una solicitud, todos los solicitantes serían juzgados por una norma objetiva, independientemente de sus antecedentes. Buscamos activamente la IA como solución a los problemas humanos, y ahora los reguladores quieren dar marcha atrás.

De hecho, lo sorprendente es cuántos usos negativos identificados en las acciones reguladoras de esta semana ya existen en la ley y cuántos no tienen nada que ver con la inteligencia artificial. De la orden de Biden: "Estos principios y mejores prácticas beneficiarán a los trabajadores al proporcionar orientación para evitar que los empleadores compensen mal a los trabajadores, evalúen las solicitudes de empleo de manera injusta o impidan la capacidad de los trabajadores para organizarse".

¿Qué tiene que ver todo esto con la inteligencia artificial? Los señores de la IA no pagan mal a los empleados, sino los directivos y ejecutivos humanos. Los sindicatos no son detenidos por agentes Pinkerton al estilo Terminator, sino por... agentes Pinkerton humanos. Si nos preocupa el bienestar de los empleados, ese objetivo debería ser el centro de la acción reguladora y legislativa, no este histrionismo centrado en la inteligencia artificial.

Incluso en el ámbito de la seguridad nacional, las supuestas nuevas capacidades de la IA son exageradas. Por ejemplo, existe el temor generalizado de que la IA ayude a acelerar el desarrollo de la próxima generación de armas biológicas y químicas, y sin embargo, como escribí hace un año y medio:

"Aunque existe el temor generalizado de que científicos locos inventen contagios mortales en laboratorios ocultos en las cuevas de Waziristán, la realidad es que el mundo ya está familiarizado con patógenos increíblemente virales y mortales. El ébola, por ejemplo, mata aproximadamente a la mitad de los infectados con una tasa de viralidad relativamente alta. Como me explicó hace años un antiguo asesor presidencial en materia de armas biológicas, la Madre Naturaleza es bastante eficiente a la hora de producir terroríficas armas biológicas por sí sola, sin necesidad de científicos locos. Nuestra respuesta de salud pública a una pandemia de origen natural y a una provocada por el hombre será exactamente la misma."

No necesitamos mejores armas: las mejores armas posibles ya están disponibles hoy en día. A la humanidad se le daba bastante bien encontrar formas de autodestruirse mucho antes de que llegara la IA.

Para una tecnología tan incipiente y no probada, nos corresponde ir mucho más despacio en la regulación. Tenemos que fomentar la experimentación generalizada y la apertura en el desarrollo de la vanguardia del rendimiento y las capacidades de la IA. Deberíamos fomentar la distribución de modelos de IA de código abierto al mayor número posible de científicos, instituciones y usuarios. Todo el mundo debería tener acceso a los mejores modelos de IA jamás creados por la humanidad.

¿Por qué? Fíjese en el increíble progreso humano que ha hecho posible la difusión de potentes sistemas informáticos en las últimas décadas. Lo extraño es que el ordenador ha creado billones de dólares de riqueza, ha mejorado la vida de miles de millones de personas y ha permitido a científicos e inventores un poder sin parangón para rebasar las fronteras del conocimiento de la humanidad y adentrarse en las profundidades de lo desconocido.

Y lo que es más grave, todo ello con una regulación mundial mínima a pesar de los peligrosos usos del ordenador. Imaginemos que los reguladores se hubieran reunido en la década de 1970, en los albores de la revolución de la informática personal e Internet, para intentar gestionar los "riesgos" imaginativos de estos nuevos dispositivos. ¿Imaginemos que hubiéramos encerrado a IBM, Burroughs, DEC y otros grandes operadores tradicionales impidiendo que nuevos participantes como Apple y Microsoft transformaran y democratizaran la informática?

La inteligencia artificial es otra forma más avanzada de computación. Los riesgos existenciales de la IA no son diferentes de los de los superordenadores que han hecho números en las últimas décadas, porque la IA no es más que superordenadores haciendo números. Mejores números, más números, pero los mismos cálculos.

Es cierto que habrá malos actores que utilicen las herramientas de IA para el mal. Algunos países equiparán sus drones con tecnología de IA asesina que matará a civiles. Los terroristas utilizarán la IA para escanear mapas y datos visuales con el fin de identificar debilidades físicas y explotarlas. Los propietarios moldearán la IA para que coincida con la discriminación de los inquilinos que buscan en un edificio. Los empresarios utilizarán la IA para optimizar los horarios de los turnos y hacer la vida de los empleados aún más inestable que antes.

Pero la cuestión es la siguiente: todo eso ya se ha hecho antes. Esa es la promesa y el peligro permanentes de la inteligencia artificial, la tecnología y la propia humanidad. Somos capaces de dar saltos extraordinarios de conocimiento y sabiduría, de desarrollar capacidades de autorrealización y expresión que nuestros antepasados sólo pueden soñar. Pero también somos capaces de los actos de maldad más atroces y extraordinarios imaginables. La maldición de la humanidad es lo poco que nuestras tecnologías parecen influir realmente en nuestra propia toma de decisiones morales. En lugar de regulación, quiero que la IA florezca tanto como pueda - "y más".


Artículos relacionados: 

El destino o la riqueza de las naciones: IA, Robótica y Automatización

¿Es la IA el principio del fin o sólo el principio?


Considere este y otros artículos como marcos de aprendizaje y reflexión, no son recomendaciones de inversión. Si este artículo despierta su interés en el activo, el país, la compañía o el sector que hemos mencionado, debería ser el principio, no el final, de su análisis.

Lea los informes sectoriales, los informes anuales de las compañías, hable con la dirección, construya sus modelos, reafirme sus propias conclusiones, ponga a prueba nuestras suposiciones y forme las suyas propias. 

Por favor, haga su propio análisis.


Fuente / Autor: Lux Capital

https://www.luxcapital.com/securities/reckless-regulators

Imagen: Cryptopolitan 

COMPARTIR:

¡Este artículo no tiene opiniones!


Deja un comentario

Tu email no será publicado. Los campos requeridos están marcados con **

Encuesta sobre intención de voto

La contrapartida de toda inversión