Loading...

Os 7 pecados capitais de ChatGPT

Os ciberdelincuentes aproveitam a inteligência artificial para criar uns ataques mais efectivos e frequentes atirando de técnicas como o conhecido 'phishing'

Ana Siles

A aplicação de ChatGPT num telemóvel / UNSPLASH

Se de algo se falou este 2023 é de ChatGPT. A inteligência artificial tem conseguido sua popularidade graças a sua capacidade para traduzir textos a outros idiomas em matéria de segundos, por exemplo.

No entanto, não sempre há um bom fim por trás desta tecnologia. Já existem numerosos exemplos de como os ciberdelincuentes usam ChatGPT para melhorar suas fraudes e resto de delitos em internet. Assim o afirmam desde Check Point® Software Technologies.

Os sete pecados capitais de ChatGPT

A companhia experiente em ciberseguridad tem listado os sete principais perigos e maus usos da IA:

  • Distribuição de malware : ao aproveitar do objectivo principal destas ferramentas, que procuram ajudar aos utentes, os ciberdelincuentes geram elementos como vírus ou troyanos. Uns códigos maliciosos depurados que incrustan em documentos, correios electrónicos e inclusive páginas site para maximizar o alcance de seus ataques e infectar os computadores de suas vítimas.
  • Phishing: com uma grande quantidade de exemplos disponíveis, a IA permite criar umas comunicações falsas bem mais realistas e convincentes que fazem que a tarefa de distinguir os verdadeiros correios legítimos se converta num verdadeiro repto. E é que o objectivo destes não é outro que enganar aos utentes para fazer que se sentam seguros e proporcionem informação sensível como senhas ou dados de pagamento como cartões de crédito.
  • Engenharia social: desenhadas para ser o mais humano possível, ChatGPT pode ser utilizado para fazer-se passar por pessoas reais com o fim de manipular aos utentes para que realizem acções perjudiciales para eles mesmos ou suas empresas, enganar a um utente para que proporcione informação de sua conta.
Uma pessoa usando o ChatGPT / EUROPA PRESS
  • Filtragem e roubo de dados: a IA generativa pode ser utilizada para criar documentos ou correios electrónicos falsos que pareçam legítimos, o que pode ser utilizado para enganar aos utentes e fazer que revelem suas credenciais ou dados sensíveis.
  • Desinformación e propaganda: ChatGPT pode ser utilizado para gerar notícias falsas e propaganda que podem ser utilizadas para enganar e manipular às pessoas. Isto pode ser usado para danificar reputações, semear discórdia, e inclusive incitar à violência.
  • Difamación e suplantación: com ferramentas como estas, a cada vez mais acessíveis e asequibles, há uma crescente preocupação de que distinguir entre arquivos autênticos e deep fakes seja quase impossível, capazes de criar fotografias, vídeos e inclusive audios falsos.
  • Ameaças internas: a inteligência artificial pode ser utilizada maliciosamente para criar documentos ou correios electrónicos falsos que pareçam provir de utentes autorizados, o que pode ser utilizado para obter acesso a dados ou sistemas sensíveis.

Educação dos utentes

Para contrarrestar os perigos que a inteligência artificial propõe no âmbito da ciberseguridad, se requer um enfoque holístico que combine a tecnologia avançada, a educação dos utentes, a regulação efectiva e a colaboração contínua entre experientes. Conquanto a IA ainda conta com um grande potencial de desenvolvimento, é importante que a colaboração entre experientes em ciberseguridad e desenvolvedores destas ferramentas se converta num dos alicerces essenciais para antecipar e abordar os possíveis riscos emergentes.

Um ciberdelincuente / PIXABAY

"Para mitigar os riscos da inteligência artificial em ciberseguridad, é essencial implementar medidas de detecção avançadas que identifiquem a actividade maliciosa dantes de que ocorram os ataques", explica Eusebio Nieva, director técnico de Check Point Software para Espanha e Portugal. "É necessário que se estabeleçam umas regulações e regulares para garantir um uso ético da IA, promovendo a transparência e responsabilidade em seu desenvolvimento e aplicativo", conclui.