Puertas a la inteligencia artificial

Este pasado verano se conmemoraron tres lustros desde que Pixar estrenó ‘Wall-E’. Los protagonistas son dos robots autónomos que, en el año 2805, en un planeta tierra abandonado por los humanos, ayudan a derrotar a una inteligencia artificial (IA) que se ha erigido como el principal soporte de una humanidad que vaga por el espacio, hasta el punto de controlar y satisfacer todos sus deseos y necesidades, eliminando su capacidad volitiva, su libertad.

Quince años después ya estamos hablando de cuáles deberían ser los límites de la inteligencia artificial, cómo establecer esos límites, y el papel del estado en el control de su uso. La IA no es como las soluciones técnicas anteriores, en sí misma no es una tecnología o conjunto de tecnologías, sino la continua expansión de la frontera del conocimiento y su uso en computación. Esto plantea procesos más autónomos, con mayor capacidad de aprendizaje y cuyos resultados son mucho más difíciles de predecir.

Tecnologías como la inteligencia artificial generativa (ChatGPT, Bard, etcétera), el reconocimiento facial, los automóviles autónomos o la robótica ofrecen capacidades ilimitadas para mejorar la vida de los individuos, pero también nos confrontan a riesgos difíciles de valorar y aún más difíciles de regular. Como los luditas en el siglo XIX, existen voces que llaman a su supresión total, sin entender que ya, en este momento, la IA es una parte esencial de nuestra existencia y que gran parte de nuestra vida diaria está, de una u otra forma, vinculada a su uso.

Para Daron Acemoglou, profesor del MIT, cualquier tecnología favorece a unos individuos y sectores de la sociedad mientras que otros resultan damnificados. Es en esa dinámica de implantación de la tecnología, la gestión de los intereses de unos y otros donde se decide quiénes son beneficiados y quiénes perjudicados. Las características de la IA como una tecnología centralizada y dominada por unas pocas empresas y gobiernos aportan una visión monolítica de su empleo que genera riesgos difíciles de soslayar.

El primero está vinculado a la privacidad. La mayor parte de estas tecnologías necesitan gugoles de datos para funcionar. Nuestro comportamiento, nuestras relaciones, nuestra forma de vida dejan un rastro de datos que alimentan los sistemas de inteligencia artificial que nos rodean. Y nosotros, de forma consciente o inconsciente, los compartimos de forma desinteresada con las empresas que posteriormente los emplean para obtener sus propios beneficios y, sí, también para aprovecharse de nosotros gracias a su poder de mercado.

Hay una segunda derivada, la capacidad que tiene la IA para aumentar el control sobre el desempeño de trabajadores y ciudadanos, lo que puede transformarse en ganancias de la productividad y seguridad, pero también en una deshumanización del entorno laboral y, en algunos países, a traspasar la vida privada de los individuos.

Por supuesto, las redes sociales se ven afectadas por los algoritmos de IA.

El diseño de social de ‘chatbots’ anunciado sin rubor por Meta (compañía matriz de Facebook, Instagram, o WhatsApp) para atraer al público joven a sus ‘apps’ se puede diferenciar muy poco de las actividades que generan desinformación y que impiden distinguir la aportación de los humanos de la aportación de las máquinas con un objetivo bastardo.

Otro aspecto importante es su efecto sobre el mercado de trabajo. En un reciente artículo con coautores de la URJC, del IPR (Universidad de Bath) y la LSE ponemos en evidencia el impacto de la robótica en el empleo, demostrando que, mientras ciertos perfiles laborales se benefician del proceso (aquellos que conllevan la resolución de problemas y capacidades cognitivas no rutinarias), gran parte de trabajadores se pueden quedar fuera del mercado por la polarización en la contratación. En olas anteriores de innovación tecnológica, la desaparición de puestos de trabajo venía acompañada por la mayor demanda en otras áreas.

Pero la transversalidad de la IA hace que de momento solo se haya producido una pérdida la participación del trabajo en la producción, lo que genera desigualdady malestar social.

Las preguntas que surgen inmediatamente son ¿hay que prohibir o regular la inteligencia artificial?, ¿cómo hay que hacerlo? Una IA en manos de monopolios tecnológicos y estados autoritarios es una amenaza para la democracia y para la sociedad. También hay que ser realistas, medidas como detener la investigación en el área durante seis meses solo muestran una tierna ingenuidad sobre el compromiso de algunos gobiernos y empresas con la libertad.

Aunque las estrategias de la UE y de EE.UU. coinciden conceptualmente en los principios clave de una IA digna de confianza y respaldan el importante papel de las normas internacionales, difieren en su planteamiento sobre la gestión del riesgo. El enfoque estadounidense está muy distribuido entre las agencias federales, que se están adaptando a la IA sin un marco legal. EE.UU. ha invertido en infraestructuras no reglamentarias, como un marco de gestión de riesgos, evaluaciones de sotftware y financiación de la investigación. Por otro lado, la recién aprobada legislación comunitaria tiene un planteamiento más centralizado y global, con una normativa adaptada a entornos digitales específicos como requisitos a la IA de alto riesgo, el uso gubernamental y/o en los productos de consumo, lo que permite más transparencia en el diseño de sistemas en medios y comercio electrónico, aunque puede generar efectos no deseados.

Cualquiera de los dos modelos debe tener cuidado de no limitar la innovación frente a terceros para evitar competir con una mano atada a la espalda en un contexto global. No podemos ser ingenuos. Por mucho que pensemos que existe una responsabilidad por parte de las autoridades y los usuarios, la IA va a seguir creciendo y desarrollándose y siempre habrá alguien dispuesto a utilizarla de forma artera por beneficio o por diversión. La fórmula que ha decidido utilizar la Unión Europea quizá sea la más acertada para evitar que, como en ‘Wall-E’, la inteligencia artificial nos devore la libertad, pero limitar su uso al ritmo de implantación actual es casi imposible y largo plazo los esfuerzos de Bruselas puede que solo sirvan para retrasar el desarrollo tecnológico de nuestra economía.

El autor es catedrático de Economía Aplicada de la Universidad Rey Juan Carlos.