Entrevista IA y democrácia

Paul Nemitz: “No podemos dejar la Inteligencia Artificial sujeta solamente a la autorregulación y la ética”

Un reputado experto en el “triángulo de ley, tecnología y democracia” y como tal un destacado asesor de la UE, Paul Nemitz comparte sus puntos de vista sobre la forma en que la inteligencia artificial podría afectar a la democracia y por qué y cómo debe ser regulada, incluso a escala europea.

Publicado en 25 mayo 2023 a las 09:03

Paul Nemitz es Asesor Principal en la Dirección General de Justicia y Protección a los Consumidores de la Comisión Europea y Profesor de Leyes en el Colegio de Europa en Brujas. Aquí expresa sus opiniones personales y no necesariamente las de la Comisión Europea. La traducción al inglés de su ensayo “The Human Imperative – Power, Democracy and Freedom in the age of Artificial Intelligence”, escrito conjuntamente con Matthias Pfeffer, se publicará en junio de este año.

Voxeurop: ¿Es la Inteligencia Artificial (IA) una oportunidad o una amenaza para la democracia?

Paul Nemitz: Las voces alarmistas están sustituyendo cada vez más al ingenuo optimismo inicial sobre la IA. Tanto Elon Musk como Bill Gates han dicho que la IA es como la energía nuclear, una oportunidad y un riesgo existencial. En su libro Human Compatible, Stuart Russel, autor de este libro de texto sobre IA que ha sido un éxito editorial, describe el problema de controlar la IA. Establece un paralelismo con la energía nuclear: No podemos estar seguros de que la inteligencia artificial general no se alcanzará en el mañana. Hubo un tiempo en el que todos los científicos de vanguardia pensaban que era imposible fraccionar el átomo. Todo esto reclama que la democracia asuma el control de esta tecnología de acuerdo con el principio de precaución demostrado por el tiempo. 

Ingenieros y promotores responsables no disentirán. Ni las personas ni la democracia pueden ser controladas y manipuladas por la IA. Antes al contrario, las personas y la democracia deben mantener su control sobre la IA. El que podamos hacer de la IA una oportunidad para la democracia depende de muchos factores. El primero y principal es que la voluntad de quienes desarrollen IA sea servir a la democracia y no solo obtener beneficios. El segundo, la voluntad de invertir en IA específicamente destinada a empoderar a los actores democráticos –desde parlamentos y gobiernos, partidos políticos, medios de comunicación, sindicatos, ONG e iglesias hasta personas individualmente consideradas– para contribuir más activa y constructivamente al funcionamiento de la democracia.

Paul Nemitz in Perugia (Italy), April 2023. | Photo: Gian-Paolo Accardo
Paul Nemitz en Perugia (Italia), abril de 2023. | Foto: Gian-Paolo Accardo

¿Debe la UE regular la IA y, en caso afirmativo, cómo y en qué dirección? ¿Aborda la Ley de IA los principales puntos relacionados con la IA y su uso?

No podemos dejar la IA sujeta solamente a la autorregulación y la ética. Al igual que en el caso de los productos químicos, los coches y la energía nuclear, por citar solo unos pocos ejemplos, esta tecnología es lo suficientemente importante para requerir una ley que defina su orientación y sus límites. La Ley de IA será un importante precedente que confirme la primacía de la democracia en tiempos de rápido desarrollo tecnológico. Los llamamientos simplones a favor de la autorregulación y la ética en lugar de leyes vinculantes y de obligado cumplimiento están desactualizados, porque la fuerza y la rapidez del desarrollo tecnológico sencillamente exigen una ley para asegurar que se atienda al interés público y que todo el mundo, incluyendo quienes no deseen participar, esté realmente sujeto a unas normas que sean de obligado cumplimiento.

No podemos pasar por alto el importante asunto del poder al hablar de la IA. Sin una ley de obligado cumplimiento, el poder de la tecnología para conformar la sociedad quedaría únicamente en manos de quienes la desarrollaran y poseyeran. Si la sociedad se organizara de esta manera, la democracia no funcionaría ni se podría asegurar el respeto de los derechos fundamentales. También necesita una regulación el mercado interior de la UE, porque de no existir una ley a escala de UE, pronto se produciría una fragmentación de la legislación entre los 27 Estados Miembros y consecuentemente un disfuncional mercado interior de la alta tecnología. La Ley de Inteligencia Artificial de la UE aborda muchos asuntos importantes relativos al desarrollo y uso de la IA y, como todo en democracia, será una ley con concesiones recíprocas, un compromiso en la dirección adecuada entre diferentes visiones políticas del mundo.


Recibe lo mejor del periodismo europeo en tu correo electrónico todos los jueves

De acuerdo con el actual proyecto de legislación, las herramientas de IA se clasificarán de acuerdo con el nivel de riesgo que se les atribuya: de mínimo a limitado, alto e inaceptable. Las áreas de preocupación podrían incluir la vigilancia biométrica, la difusión de información falsa o el lenguaje discriminatorio. ¿Tiene sentido todo esto?

Este enfoque de la regulación basado en el riesgo es un buen principio. Pero es limitado porque reduce la legislación a un taller de reparaciones para los fallos del mercado y los riesgos tecnológicos creados en el sector privado. De este modo, si solamente tuviéramos regulación basada en el riesgo, la democracia estaría abandonando la aspiración de que las personas, por medio de la democracia, conformen sus sociedades y la forma en que desean vivir. Dicho esto, la Ley de IA forma parte de un paquete holístico de legislación de primera generación con el que la UE está dando forma a las nuevas realidades digitales. Se alinea con la Ley de Servicios Digitales (LSD), la Ley de Mercados Digitales (LMD), el Reglamento General de Protección de Datos (RGPD) y la legislación de protección al consumidor, por citar solo unas pocas formas de legislación actualmente en vigor. Lo que ahora necesita es ser rápidamente adoptada para crear hechos tangibles.

Las más de 3000 enmiendas en el Parlamento Europeo demuestran que la democracia tiene mucho que decir acerca de la IA y su regulación. Y que funciona bien en Europa. Creo en la buena voluntad para transigir a fin de aprobar una legislación adecuada y demostrar que la democracia puede funcionar. En este espíritu, creo que la Ley de IA, junto con otras leyes ya vigentes que también se aplican a la IA, es una buena pieza inicial de legislación democrática para la Inteligencia Artificial, vinculante tanto en el sector privado como en el público. Podemos sentirnos orgullosos de que Europa, una vez más, esté en la vanguardia de esta marcha hacia el importante objetivo de poner a la democracia por delante de las nuevas tecnologías. 

¿Podemos confiar en la gigantesca ingeniería y los magnates de Silicon Valley para la autorregulación de la IA? ¿El reciente llamamiento de algunos para hacer una pausa en el desarrollo de la IA va en la dirección correcta o deberían intervenir los gobiernos (y la UE)? ¿Debería haber una regulación a escala mundial para que todos compitieran en igualdad de condiciones?

Bien cierto es que no podemos confiar en la autorregulación en áreas de gran importancia para los derechos individuales y el buen funcionamiento de la sociedad. Incluso la libertad de prensa y la protección de los periodistas en Europa están basadas en leyes muy fuertes. La idea de que la mejor y más libre de las sociedades existe en ausencia de las leyes es una absoluta necedad. Por el contrario, la más noble expresión de democracia es la creación de las leyes. Tenemos que dejar de hablar de la ley como un problema, como un coste, como un obstáculo a la innovación.

La experiencia con el cambio climático y la energía nuclear demuestra que lo contrario es lo cierto, y esta lección también es aplicable a la economía digital que hoy por hoy y en gran medida domina nuestra esfera pública: solo unas leyes fuertes basadas en buenos procesos democráticos y con fuertes mecanismos para su obligado cumplimiento pueden salvaguardar el interés público en sociedades complejas. En cuanto a la regulación mundial vemos mucha actividad en la OCDE, la UNESCO y el Consejo de Europa. Pero no podemos esperar hasta que se llegue a un acuerdo global, porque nuestro proceso democrático ni puede ni debe depender de la conformidad de otros. Dicho esto y como es natural, Europa busca el entendimiento global y, siempre que sea posible, la creación de legislación internacional. Queremos un mundo basado en normas, no en la fuerza.

En cualquier caso, la regulación de la UE y/o EE. UU. dejaría sitio para que estados o gobiernos sin escrúpulos usaran la IA con fines militares o perturbadores. ¿Qué riesgos hay?

El agresor Vladímir Putin ha dicho que quien controle la IA controlará el mundo. Hay una carrera tecnológica para usar la IA con fines militares. Es importante que la OTAN no sea adelantada en esta carrera por Rusia o China. Las conversaciones sobre normas internacionales que regulen el desarrollo y uso de la IA para fines militares avanzan muy lentamente, por razones obvias. Pero bien cierto es que entre los estados democráticos hay una ambición compartida por llegar al establecimiento de unas normas para la IA militar similares a las existentes para las minas terrestres, armas portátiles e incluso armas nucleares. Es más probable que lleguemos a establecer unas buenas normas si partimos de una posición de fuerza, que no de debilidad. Pero sería un error usar este razonamiento para exigir que cada uno fuese por su lado a la hora del desarrollo y uso de la IA por empresas del sector civil y por gobiernos para fines no militares. El reto de hacer que la IA sea soporte de la democracia y de los derechos fundamentales es un reto tecnológico al que han de hacer frente los desarrolladores, y no un obstáculo para el desarrollo.

¿Qué piensa usted de la XAi de Elon Musk? ¿Existe el riesgo de que abuse de ella como está haciendo con Twitter?

Elon Musk es un participante en la economía de la atención. No sé a dónde va su XAI y tampoco eso es lo más importante que debemos conocer. Pero una cosa está clara: Elon Musk y sus empresas han de ser consideradas responsables ante la ley en todo momento, del mismo modo que cualquier otra persona física o jurídica.

¿Cómo podemos hacer que las empresas de IA sean responsables de los posibles abusos de sus productos o de que estos se descontrolen?

La Comisión ha propuesto legislación sobre la responsabilidad por la IA. Y la Ley de IA marca las normas de cuidado que los desarrolladores y usuarios de IA han de seguir.

¿Necesitamos reglas éticas, además de las legales, para la IA y su uso por las empresas de medios de comunicación y otros? En caso afirmativo, ¿cómo deberían ser?

No hay nada malo con las reglas éticas que se añadan a la legislación. La ingeniería tiene una amplia tradición en cuanto al establecimiento de reglas éticas para sus integrantes individuales, y los ingenieros individualmente considerados suelen tener unas éticas superiores a las de las empresas para las que trabajan. Pero lo que no vale es sustituir la ley con la ética o la autorregulación. La primera regla de ética en cualquier empresa de tecnología tiene que ser: Obedecemos a la ley y la obedecemos de principio a fin. Así que nada de juegos al borde de la ley, tanto si es la ley fiscal como si es la ley de IA. Las personas que piensan que la innovación incluye perturbar la ley han de sentir la mano implacable de la ley democrática, porque en esencia significa que menosprecian la democracia por su propio interés. 

En su libro The Human Imperative: Power, Freedom and Democracy in the Age of Artificial Intelligence, que usted ha escrito conjuntamente con Matthias Pfeffer, indica usted que “Las tecnologías digitales y sus gestores empresariales saben más de las personas que las mismas personas saben de sí mismas, o que los gobiernos saben del mundo. […] Tomado en su conjunto esto nos lleva a una masiva asimetría del conocimiento y del poder en la relación entre la persona y la máquina.” ¿Nos llevará la IA a menos desigualdades o, por el contrario, profundizará la brecha de conocimiento y poder entre quienes la controlan y gestionan y quienes no lo hacen (que siempre son los mismos)? ¿Quién protegerá a estos últimos y cómo lo hará? En su ensayo también menciona usted algunas soluciones posibles.

Las políticas públicas han de asegurar que el progreso tecnológico beneficia a todas las personas y que promueve el buen funcionamiento de la democracia. Esto exige una combinación holística de políticas y no puede conseguirse con una única medida. Necesitamos restringir la acción de los poderosos y evitar la concentración de poder, necesitamos empoderar a los nuevos partícipes y tenemos que empoderar a las personas en su vivir cotidiano. Esta combinación de políticas formada por regulación y política industrial, incluyendo la financiación pública, es lo que constituye las decisiones políticas en democracia. Del mismo modo que en la UE necesitamos amplias mayorías para aprobar leyes y presupuestos, la política de la UE sobre estos asuntos es una combinación de las diferentes formas en que los partidos democráticos ven cómo va el mundo.

Tal como cambian las mayorías, así lo hace el control de las políticas. Esta es la razón de que tenga sentido para las personas interesadas el integrarse rigurosamente y a largo plazo en el proceso democrático, que es mucho más que participar en las elecciones. Sea bienvenido todo lo que pueda hacerse con y por medio de la IA para potenciar esa integración con la democracia representativa y sus actores. Ahora es el momento para que los principales participantes en la IA dejen de hablar de boquilla y se decidan a invertir para que esto suceda. Necesitamos herramientas que faciliten la continua integración de las personas en la democracia, que empoderen a las personas en su relación individual con los poderosos, tales como las grandes empresas y los poderosos gobiernos, y que ayuden a las personas a organizarse conjuntamente y a reemprender los penosos procedimientos de tomar decisiones conjuntamente, sea en partidos políticos o en iglesias, sindicatos o grandes ONG.

Se ha dicho que la IA generadora supondrá la eliminación de hasta 300 millones de empleos en todo el mundo a lo largo de estos próximos años. ¿Está usted de acuerdo? ¿Cuál es el lado positivo?

La política de precaución significa que debemos tomar en serio tales estudios, aun cuando sus predicciones difieran mucho. Muchas tecnologías nuevas requieren nuevas habilidades y políticas para ayudar a las empresas y las personas en el tránsito de los cambios estructurales que tienen por delante. Esta es la política de la UE. Los gobiernos democráticos y la democrática UE no pueden ponerse de perfil y ver cómo la democracia, el imperio de la ley o los buenos puestos de trabajo y el empleo se van por el sumidero a medida que la IA y las corporaciones que dominan su desarrollo y uso se adueñan de todo. Estamos activamente involucrados en la promulgación de políticas para evitar los aspectos negativos de la era digital y para sacar lo mejor de ella para las personas individualmente consideradas, pero también para el buen funcionamiento de nuestras sociedades. Un “franco debate” en la Casa Blanca con líderes del entorno técnico acerca de los riesgos de la IA, que podamos leer en la prensa, está bien. Pero conseguir una ley sobre IA y sobre la responsabilidad de la IA a lo largo del proceso democrático estaría todavía mejor. No está nada mal que Europa lidere la marcha hacia el buen funcionamiento de la democracia en la era de la IA.


¿Eres un medio de comunicación, una empresa o una organización? Consulta nuestros servicios editoriales y de traducción multilingüe.

Apoya el periodismo europeo independiente

La democracia europea necesita prensa independiente. Voxeurop te necesita a ti. ¡Únete a nosotros!

Sobre el mismo tema