Revolución, amenaza para millones de puestos de trabajo, nueva era en la historia de la humanidad, riesgo para la creatividad y la originalidad… De la inteligencia artificial se ha dicho casi de todo. Para delimitarla y circunscribirla a unos límites justos, la Unión Europea prepara un reglamento, que en teoría prohibirá tecnologías peligrosas. No obstante, hay algunos puntos del futuro reglamento que, dada la presión de grandes compañías, podrían no ser tan ambiciosos como sería deseable.
Al menos eso es lo que opina IA Ciudadana, un colectivo que aúna a 16 organizaciones sociales que se define como “una coalición de organizaciones que trabajan para defender los derechos humanos en el contexto de la era digital”.
Prohibición de “tecnologías peligrosas”
A principios de mes, IA Ciudadana se dirigió en un comunicado a Carme Artigas, Secretaria de Estado de Digitalización e Inteligencia Artificial, y a Nadia Calviño, Ministra de Economía, para pedirles que, en el marco de las negociaciones sobre el futuro reglamento de inteligencia artificial, se prohibieran “las tecnologías peligrosas que puedan amplificar la pobreza, el racismo y la discriminación, y para recordarle que la determinación del riesgo de los sistemas de IA no debe quedar en manos de las propias empresas que los desarrollan”.
Esto se debe a que existía cierto runrún con la influencia de las grandes tecnológicas en la elaboración de la ley, ya que estas empresas querían (y quieren) meter baza. Anabel Arias, responsable de derechos digitales de CECU y portavoz de IA Ciudadana, explica a Consumidor Global que el Reglamento de Inteligencia Artificial que está cocinando a fuego lento la UE es importante porque puede marcar una tendencia a nivel mundial. El proceso está ahora en su última etapa, con negociaciones a tres bandas entre el Parlamento Europeo, el Consejo de la UE y la Comisión Europea.
Aprovechar la presidencia del Consejo de la UE
Y, España, dado que en estos momentos detenta la presidencia del Consejo de la UE, “cuenta con una oportunidad única para asegurarse de que esta pieza regulatoria tenga las protecciones adecuadas para las personas”, indica Arias.
“El lobby de las Big Tech ha intentado introducir modificaciones para diluir las obligaciones que pretende establecer el reglamento”, revela esta experta. Según las averiguaciones de un importante grupo de investigación, afirma Arias, estas grandes tecnológicas dedicaron 113 millones de euros durante 2022 para influir en procesos legislativos europeos. ”Este dato demuestra la capacidad de influencia de estas compañías con respecto a otros actores interesados en esta regulación, como la sociedad civil o grupos afectados por la misma”.
Niveles de riesgo
Un ejemplo concreto de esa influencia se encuentra en la clasificación de riesgos que establece el reglamento, explica Arias. Europa planteaba cuatro tipos de riesgos: el inaceptable, el riesgo alto, el riesgo reducido y el riesgo mínimo. Cada uno de estos niveles requeriría unas obligaciones de transparencia. Por ejemplo, los clasificados con riesgo inaceptable quieren prohibirse dentro de la UE, y serían aquellos “que se aprovechen de grupos vulnerables y generen daños significativos”.
“Ahora bien, a lo largo del proceso legislativo, esta clasificación se ha ido debilitando al permitir que las propias empresas evalúen el nivel de riesgo de sus sistemas”, ha señalado Arias. Esto supone, de facto, “una vía de escape a las obligaciones del reglamento” para las Big Tech, que son las que determinarán si su sistema es de alto riesgo o no, de modo que se pone en tela de juicio la efectividad de todo el reglamento. Así, desde IA Ciudadana arguyen que “no puede ser el lobo quien decida si quiere cuidar de las gallinas”.
Reconocimiento biométrico
El argumento ha convencido al servicio jurídico del Parlamento Europeo. Además, la coalición sostiene que es necesario que se prohíban las tecnologías de reconocimiento biométrico que permiten el reconocimiento facial, de emociones y del lenguaje corporal en los espacios públicos, tanto en tiempo real como posteriormente, “pues atenta contra el derecho a la intimidad, la privacidad, el derecho a la igualdad y a la no discriminación, así como el derecho a la protesta”.
De este modo, la intención, indica Arias, es clasificar como “riesgo inaceptable” los sistemas de IA que sean capaces de realizar reconocimientos biométricos en espacios de acceso público “en tiempo real” y “ex post”, por parte de autoridades. En cambio, el uso de estos sistemas por parte de entidades privadas sí está permitido.
Diferencias de opinión
Ahora mismo hay posiciones diferentes sobre este punto. “La propuesta de la Comisión Europea y la orientación general del Consejo prohibieron los sistemas de reconocimiento biométrico tiempo real en espacios de acceso público, pero establecieron excepciones (como la búsqueda de niños perdidos) y en ciertas condiciones (como la autorización judicial previa) permite el uso de estos sistemas en espacios públicos”, narra Arias.
En cambio, en la posición adoptada en junio por el Parlamento Europeo se ha incorporado “la prohibición total de sistemas de reconocimiento biométrico en espacios de acceso público tanto en tiempo real, como posterior”, con una única excepción: que estén sujetos a una autorización prejudicial, de conformidad con la UE y para determinados delitos graves que ya se han producido.
Un punto controvertido
“Este resulta ser uno de los puntos más controvertidos en las negociaciones que están teniendo lugar actualmente”, dice Arias. El asunto se tratará en una reunión a tres bandas que tendrá lugar el martes 24 de octubre. Los eurodiputados estarían presionando por una prohibición total, dice la experta de CECU, “mientras que los gobiernos de la UE quieren mantener algunas excepciones, según el texto original de la Comisión”.
Bajo el punto de vista de IA Ciudadana, estos sistemas pueden afectar a la privacidad, a la libertad de expresión y al derecho a la no discriminación.