Em julho de 2022, uns meses dantes de que se lançasse ChatGPT ou de que se viralizase a foto do Papa Francisco com um abrigo alvo gerada por Midjourney , Nadia Calviño, vice-presidenta primeira e ministra de Assuntos Económicos e Transformação Digital, anunciou a criação da Agência Espanhola de Supervisão de Inteligência Artificial (AESIA). Disse-se então que Espanha se convertia no primeiro país europeu em ter um órgão destas características e que se antecipava à entrada em vigor do Regulamento Europeu de Inteligência Artificial.
Celebração, aplausos e certa curiosidade por ver que cidade espanhola teria a sorte de acolher a sede deste novo organismo do que pouco se sabia. Apresentaram-se 16 candidatas, e no final de 2022, o Governo anunciou que a agraciada seria A Corunha, "atendendo a sua vez ao compromisso de descentralização do sector público do Governo e da vertebración do território". Também explicou que Galiza era idônea porque os centros de investigação das universidades galegas tinham posto em marcha projectos de carácter internacional, e porque a cercania a Portugal permitiria potenciar o "hub de talento ibério".
Espanha, referente da IA
Não obstante, a dia de hoje há algumas perguntas no ar. Anabel Arias, responsável por direitos digitais de CECU e porta-voz de IA Cidadã, explica a Consumidor Global que Espanha, além de detentar a presidência do Conselho da UE, "se quis posicionar como referente da inteligência artificial".
Mas era importante garantir que contar-se-ia com as associações civis especializadas na matéria. Já em setembro de 2022, IA Cidadã pediu ao governo que estabelecessem "mecanismos de participação efectiva no processo de desenho e criação da AESIA, bem como no estabelecimento de seus objectivos e fins". Isto é, que dissessem claramente de que ia a coisa e que se contasse com a cidadania. Em teoria, a AESIA vinha acompanhada de um meio de provas (sandboxes) que serviria para analisar o aplicativo do futuro Regulamento de Inteligência Artificial.
Interlocución com o Governo
"Também reclamamos uma estratégia de participação clara da sociedade civil nos processos e no desenvolvimento de políticas relacionadas com a inteligência artificial, bem como vias formais de interlocución com o Governo para promover um debate público sobre o governo dos algoritmos que centro o respeito aos direitos humanos e a justiça social", acrescenta Arias.
Sua reclamação surtió efeito: IA Cidadã reuniu-se com o Governo em outubro de 2022, e o Governo (a Secretaria de Estado de Digitalização e Inteligência Artificial, concretamente) indicou-lhes que a Estratégia Nacional da IA contemplava "um Observatório do Impacto Social dos Algoritmos, que dependeria da AESIA, e no que as organizações seriam convidadas a participar".
Sem vias de participação
No entanto, um ano depois, isto é, o passado setembro, aprovaram-se os Estatutos da AESIA, e parece que rien de rien. "Não só não temos visto vias efectivas de participação no processo de desenho e criação da AESIA, sina que também não vemos claramente tais vias nos estatutos, bem como também não vemos referência alguma ao famoso Observatório", explica a experiente de CECU.
Sim têm visto, acrescenta Arias, que contar-se-á com um "Departamento de instrumentalización dos mecanismos de identificação de tendências e avaliação do impacto social" no que se faz referência a "fomentar as investigações, publicações, estudos e análises que reflitam a visão da indústria sobre a estratégia nacional em matéria de inteligência artificial…".
Marcos de escuta
Também se recolhe a existência, puntualiza Arias, de um "Departamento de alineamiento e coordenação que poderá desenvolver marcos de escuta com associações, fundações, grupos de interesse que representem e defendam a perspectiva humanista contra as possíveis distorções ou actuações e decisões que possam vulnerar direitos reconhecidos". Quiçá, este departamento vinga a remediar a ausência do observatório. Mas passar de Observatório de Impacto social a departamento supõe baixar um degrau.
"Ainda que terá que ver que sucede quando a AESIA esteja em marcha, desde a sociedade civil não achamos que se tenha garantido a participação efectiva em sua gestación e temos dúvidas sobre se garantir-se-á tal participação quando esta esteja em funcionamento", resume Arias.
A maturidade do governo
Martín Piqueras é professor da OBS Business School e experiente em estratégia digital em Gartner, e explica deste meio que, com a inteligência artificial, a sociedade está a avançar "por terreno desconhecido em muitos âmbitos", pelo que, na actualidade, é impossível que se chegue a um nível de maturidade alto quanto a governo . "Quando há um paradigma muito novo, muito complexo, com muito potencial e com muita aceitação social (porque todo mundo lhe tem medo, mas todo mundo lhe pergunta coisas a ChatGPT), o normal é que o governo tarde um tempo em adquirir uma determinada maturidade, porque há muitos actores implicados", arguye.
Existe um debate razoável, assinala o professor da OBS, sobre quais são os passos que se devem dar e em que ordem. "Escutamos primeiro às big tech, aos técnicos ou aos cidadãos? Escutamo-los a todos ao mesmo tempo? O que vai ocorrer, porque ocorre sempre nestes ciclos, é que se vão ir criando, um depois de outro, órgãos de governo que ir-se-ão sincronizando como uma máquina que dentro de 5 ou 6 anos estará engrasada", explica Piqueras.
A IA como "coreografa"
"É um erro não contar com os cidadãos ao princípio? Eu diria que há que contar com todos", prossegue Piqueras. A seu julgamento, hoje em dia existe muita diversidade de opiniões, mas é preciso que, para que a IA funcione, o faça unindo todas as vozes. "É muito fácil perguntar a 10 pessoas que pensam sobre a inteligência artificial e obter 10 respostas diferentes", assinala Piqueras, mas "a IA será uma coreografa".
"Será uma orquestra onde não terá gente tocando desacompasada: os cidadãos, as empresas, o tecido cultural e todos os actores terão sua palavra e irão ao unísono", explica. Dantes disso, passaremos por um período de crescimento , "com uma fase de adolescência digital, mas isso é inevitável. Não se pode chegar a um nível de maturidade 5 sobre 5 em nenhum aspecto sem ter passado dantes por maturidade 1,2,3 e 4".
"Um amplificador humano"
Com respeito ao medo e inclusive a hostilidade que acorda a IA em alguns sectores, Piqueras argumenta que"vai ser um amplificador humano".
Do mesmo modo, compara, que um telefone móvel "nos amplifica em nossa capacidade cognitiva", porque permite escutar ao vivo a uma pessoa que está a centos de quilómetros de distância. "Isso não nos dá medo, porque entendemos como funciona", afirma.