A ANÁLISE

ChatGPT: um risco para a privacidade?

A história ensinou-nos que, se queremos proteger a nossa privacidade, e nós somos os principais interessados nessa tarefa, o trabalho, o muro de contenção inicial, tem de ser feito por nós próprios.

O advogado Samuel Parra, especialista em direito tecnológico / CG PHOTOMONTAGE
O advogado Samuel Parra, especialista em direito tecnológico / CG PHOTOMONTAGE

ChatGPT, a inteligência artificial da OpenAI especializada no diálogo através do modelo de linguagem GPT-3,  pode orgulhar-se de ter atingido números recorde.

Estima-se que nos dois primeiros meses desde o seu lançamento registaram-se cerca de 100 milhões de utentes, o que coloca a ChatGPT como a plataforma com maior crescimento de utilizadores da história. E estes não parecem ser números inflacionados por si próprios.

ChatGPT entrou em muitas empresas e lares de todas as pessoas. O mesmo está a ser utilizada por um estudante de primária para aprender a fazer raízes quadradas que está a ajudar a um desenvolvedor de uma empresa multinacional a depurar o código fonte de uma aplicação.

Poucos puderam resistir ao encanto desta nova ferramenta mas ainda menos pararam a refletir sobre um risco inerente à sua utilização: como pode afectar a privacidade da pessoas este tipo de inteligência artificial?

Não devemos esquecer que a ChatGPT está em constante aprendizagem. Aprende de muitas fontes e uma delas é de nós mesmos, da nossa interacção com ela, dos dados que lhe fornecemos nos diálogos. Cada vez que lhe perguntamos por algo ou lhe pomos em contexto de alguma situação, ChatGPT regista e, de alguma forma, trata toda essa informação, ainda que nela tenha dados pessoais.

E fá-lo além disso sem darmos conta, sem nos ter avisado previamente, para além de algumas referências perdidas nas múltiplas páginas das suas condições do serviço. Ignoramos que a informação que lhe fornecemos servirá para alimentar o seu banco de dados de conhecimento de uma forma que não podemos atingir compreender e com efeitos imprevisíveis.

Isto foi precisamente um ponto de preocupação para a autoridade de proteção de dados italiana, que constatou uma falta de informação aos utilizadores da ChatGPT em relação ao tratamento dos dados pessoais que podem partilhar nas suas conversas.

Tal foi a preocupação deste garante italiano que no final de março de 2023 emitiu uma decisão que proibia a OpenAI de tratar os dados pessoais dos cidadãos estabelecidos em território italiano até que a empresa apresentasse garantias e elementos que lhe permitissem inferir o cumprimento da regulamentação europeia em matéria de proteção de dados.

Poderemos estar ou não de acordo com a contundência das medidas adoptadas em Itália, mas onde todos deveríamos concordar é em não deixar de prestar atenção ao impacto na privacidade e na proteção dos dados pessoais da popularização destas ferramentas. E, na minha opinião, isto não está a suceder. Estamos tão maravilhados com os fogos artificiais desta tecnologia que não nos deixam ver o que por trás.

Tal como aconteceu com o surgimento das redes sociais, durante muitos anos os entusiastas da privacidade insistiram em utilizá-las com cautela, não partilhando nelas informações pessoais excessivas; avisos que, e refiro-me aos factos, não foram bem recebidos pelo público.

Não devemos confiar em que a empresa proprietária da inteligência artificial de turno vá estabelecer mecanismos eficazes e garantias adequadas para proteger os nossos dados pessoais. Sem dúvida não quererá que existam fugas de informação, mas são poucas as grandes empresas tecnológicas que põem o centro de gravidade na protecção de um direito como é o da protecção de dados, pois não é menos verdade que não é um direito existente em todos os ordenamentos jurídicos, sendo além disso que o seu conteúdo e alcance também não é harmonioso entre os diferentes Estados do planeta.

Também não devemos confiar em que o legislador redija leis que nos protejam; os avanços tecnológicos têm demonstrado que as nossas leis costumam ir por trás no tempo do impacto desses avanços, e quando pretendem regulá-los ou já é demasiado tarde ou simplesmente têm evoluído para outra coisa ou os governos têm cedido às pressões e essas normas ficam curtas quanto à protecção do cidadão.

A história ensinou-nos que, se queremos proteger a nossa privacidade, sendo nós os principais interessados nessa tarefa, o trabalho, o muro de contenção inicial, deve estar em nós. Só mediante uma cidadania educada na cultura à proteção da sua própria privacidade e os seus próprios dados pessoais poderá defender-se do turbilhão de dados nos quais se converteu grande parte de internet.

Neste contexto, as tecnologias de processamento da linguagem natural como a ChatGPT emergem como o novo campo de batalha para a privacidade.

Você leu este conteúdo de consumidor global preparado por nossa equipe de redatores e especialistas. Se você deseja acessar livremente todo o conteúdo que produzimos, recomendamos se inscrever. Além disso, você pode receber aconselhamento jurídico gratuito por fazer parte da nossa comunidade.
Comentários

Desbloquear para comentar

Inscrever-se

Temos
o melhor plano
para o consumidor exigente

Inscrever-se
Acessar

Acesso total

Acesso a todas as seções sob assinatura

Conteúdo exclusivo

Conteúdo exclusivo

Os melhores artigos, produtos, conteúdos exclusivos e assessoria jurídica

Inscrever-se
Seja o melhor consumidor junte-se ao nosso clube.