Os 7 pecados capitais de ChatGPT

Os ciberdelincuentes aproveitam a inteligência artificial para criar uns ataques mais efectivos e frequentes atirando de técnicas como o conhecido 'phishing'

A aplicação de ChatGPT num telemóvel / UNSPLASH
A aplicação de ChatGPT num telemóvel / UNSPLASH

Se de algo se falou este 2023 é de ChatGPT. A inteligência artificial tem conseguido sua popularidade graças a sua capacidade para traduzir textos a outros idiomas em matéria de segundos, por exemplo.

No entanto, não sempre há um bom fim por trás desta tecnologia. Já existem numerosos exemplos de como os ciberdelincuentes usam ChatGPT para melhorar suas fraudes e resto de delitos em internet. Assim o afirmam desde Check Point® Software Technologies.

Os sete pecados capitais de ChatGPT

A companhia experiente em ciberseguridad tem listado os sete principais perigos e maus usos da IA:

  • Distribuição de malware : ao aproveitar do objectivo principal destas ferramentas, que procuram ajudar aos utentes, os ciberdelincuentes geram elementos como vírus ou troyanos. Uns códigos maliciosos depurados que incrustan em documentos, correios electrónicos e inclusive páginas site para maximizar o alcance de seus ataques e infectar os computadores de suas vítimas.
  • Phishing: com uma grande quantidade de exemplos disponíveis, a IA permite criar umas comunicações falsas bem mais realistas e convincentes que fazem que a tarefa de distinguir os verdadeiros correios legítimos se converta num verdadeiro repto. E é que o objectivo destes não é outro que enganar aos utentes para fazer que se sentam seguros e proporcionem informação sensível como senhas ou dados de pagamento como cartões de crédito.
  • Engenharia social: desenhadas para ser o mais humano possível, ChatGPT pode ser utilizado para fazer-se passar por pessoas reais com o fim de manipular aos utentes para que realizem acções perjudiciales para eles mesmos ou suas empresas, enganar a um utente para que proporcione informação de sua conta.
Una persona usando el ChatGPT / EUROPA PRESS
Uma pessoa usando o ChatGPT / EUROPA PRESS
  • Filtragem e roubo de dados: a IA generativa pode ser utilizada para criar documentos ou correios electrónicos falsos que pareçam legítimos, o que pode ser utilizado para enganar aos utentes e fazer que revelem suas credenciais ou dados sensíveis.
  • Desinformación e propaganda: ChatGPT pode ser utilizado para gerar notícias falsas e propaganda que podem ser utilizadas para enganar e manipular às pessoas. Isto pode ser usado para danificar reputações, semear discórdia, e inclusive incitar à violência.
  • Difamación e suplantación: com ferramentas como estas, a cada vez mais acessíveis e asequibles, há uma crescente preocupação de que distinguir entre arquivos autênticos e deep fakes seja quase impossível, capazes de criar fotografias, vídeos e inclusive audios falsos.
  • Ameaças internas: a inteligência artificial pode ser utilizada maliciosamente para criar documentos ou correios electrónicos falsos que pareçam provir de utentes autorizados, o que pode ser utilizado para obter acesso a dados ou sistemas sensíveis.

Educação dos utentes

Para contrarrestar os perigos que a inteligência artificial propõe no âmbito da ciberseguridad, se requer um enfoque holístico que combine a tecnologia avançada, a educação dos utentes, a regulação efectiva e a colaboração contínua entre experientes. Conquanto a IA ainda conta com um grande potencial de desenvolvimento, é importante que a colaboração entre experientes em ciberseguridad e desenvolvedores destas ferramentas se converta num dos alicerces essenciais para antecipar e abordar os possíveis riscos emergentes.

Un ciberdelincuente / PIXABAY
Um ciberdelincuente / PIXABAY

"Para mitigar os riscos da inteligência artificial em ciberseguridad, é essencial implementar medidas de detecção avançadas que identifiquem a actividade maliciosa dantes de que ocorram os ataques", explica Eusebio Nieva, director técnico de Check Point Software para Espanha e Portugal. "É necessário que se estabeleçam umas regulações e regulares para garantir um uso ético da IA, promovendo a transparência e responsabilidade em seu desenvolvimento e aplicativo", conclui.

Você leu este conteúdo de consumidor global preparado por nossa equipe de redatores e especialistas. Se você deseja acessar livremente todo o conteúdo que produzimos, recomendamos se inscrever. Além disso, você pode receber aconselhamento jurídico gratuito por fazer parte da nossa comunidade.
Comentários

Desbloquear para comentar

Inscrever-se

Temos
o melhor plano
para o consumidor exigente

Inscrever-se
Acessar

Acesso total

Acesso a todas as seções sob assinatura

Conteúdo exclusivo

Conteúdo exclusivo

Os melhores artigos, produtos, conteúdos exclusivos e assessoria jurídica

Inscrever-se
Seja o melhor consumidor junte-se ao nosso clube.