O deepfake é uma técnica baseada na inteligência artificial e na aprendizagem automatizada das máquinas --machine learning-- que abarca desde a falsificação de caras até a clonagem da voz, entre outras funções. Os experientes advertem de que seu potencial para suplantar a identidade digital de qualquer pessoa ainda não está ao máximo nível, ainda que sublinham que já se conseguem resultados muito creíbles. De facto, auguran que, nos próximos anos, se sofisticarán suas prestações, o que aumentará o risco de que os cibercriminales utilizem esta tecnologia para cometer fraudes de todo o tipo.
Seu uso em campanhas de desprestigio político ou de famosos em redes sociais é a vertente mais conhecida do deepfake, ainda que sua utilização publicitária também tem cobrado vida --nunca melhor dito-- com anúncios televisivos como o de Cruzcampo , no que a falecida Lola Flores reivindica as raízes e o poderío. Neste caso, a inteligência artificial tem conseguido conjugar, com grandes resultados, a imagem da histórica folclórica e a voz de sua filha, Lolita Flores. Pese a tudo, PMEs e grandes empresas já têm sido vítimas destas técnicas e num futuro não muito longínquo os cidadãos também ver-se-ão expostos, por exemplo, ao contratar serviços financeiros ou de outro tipo através do reconhecimento facial ou de um telefonema telefónico.
Ainda não é um perigo real
No entanto, a dia de hoje o deepfake ainda não é um perigo real para os utentes da pé, recalca Eusebio Nieva, o director técnico em Espanha e Portugal da empresa de ciberseguridad Check Point. Trata-se de uma tecnologia que tem surgido "faz relativamente pouco", mas que tem evoluído muito rápido. "Não duvido de que no futuro, com uns algoritmos refinados ou com a potência de cálculo adequada, possa ser utilizada para mais coisas", assegura sobre o perigo destas técnicas para suplantar a identidade de um cliente ao contratar um produto.
Para Raúl Orduna, director de Segurança Digital de Vicomtech, um centro tecnológico vascão especializado em inteligência artificial, a evolução destas técnicas implicará que as empresas tenham que implementar novas medidas de segurança. Nesse sentido, os sistemas actuais nos que se avisa ao utente de que o telefonema vai ser gravada ao realizar uma transacção via telefónica precisarão se melhorar. "Requerer-se-á de um nível de sofisticación tecnológica bem mais alto para demonstrar que uma voz tem sido gerada sinteticamente por um sistema informático", acrescenta Orduna.
Obtenção de dados
A aprendizagem das máquinas para poder clonar a voz de alguém ou substituir sua cara pela de outra pessoa num vídeo em tempo real requer uma grande quantidade de dados. De facto, Vicomtech participou no projecto do podcast XRey, no que se sintetizou a voz de Francisco Franco para que, por exemplo, cantasse A Macarena. Para isso, recorreram a 20 horas de audio de treinamento com a dificuldade de encontrar som em bom estado procedente, em sua maioria, dos discursos navideños do ditador.
Ao transladar esta questão ao nível do utente médio, a experiente em ciberseguridad e CEO de OptimumTIC, Rosa Ortuño, faz menção às múltiplas possibilidades que têm os criminosos para obter este tipo de informação. Assim, o costume a cada vez mais estendida de mandar audios através de Whatsapp , por exemplo, podem ser bancos de pesca para os maus. Na mesma linha, Ortuño alerta da gestão dos dados que fazem alguns aplicativos móveis suspeitas, já que seus termos de uso escondem cláusulas abusivas nas que a gente não costuma consertar. Uma delas é a app russa FaceApp, que se fez viral por sua função de envelhecer o rosto dos utentes. "Sua letra pequena ocupava mais de 30 páginas, nas que se dizia, claramente, que guardar-se-iam as fotos, que usar-se-iam algoritmos para saber a evolução de tua maturidade em diferentes idades e que tudo tê-lo-iam em Rússia guardado por se alguma vez ias ao país", alerta esta experiente.
Os maus estão a cada vez melhor preparados
Os ataques dos ciberdelincuentes são a cada vez mais sofisticados e, em alguns casos, têm conseguido dinheiro fazendo-se passar pelo CEO de uma companhia. "Imagina-te que recebes uma videollamada. A voz é a do gerente, a cara é a do gerente, o vídeo é o do gerente. Seguramente saltes-te todas as medidas de segurança e faças o pagamento sem fazer outra verificação", indica Orduna, de Vicomtech.
"Os maus trabalham com as últimas tecnologias. Dispõem a mais orço que as empresas que têm que se proteger e usam um machine learning bem mais avançado que a maior parte delas", agrega o experiente. Apesar disso, as companhias recebem assessoramento nesta matéria e, ainda que seus métodos não são os mais ponteiros devido às dificuldades que implica, sim que fazem grandes esforços para proteger a seus clientes.
Treinamento
Um exemplo disso é o treinamento que recebem os empregados do Banco Santander. Segundo fontes da entidade, para detectar possíveis casos de phishing às vezes recebem correios por parte da empresa que simulam este tipo de delitos e monitoram como têm gerido a situação.
Nesse sentido, um relatório da multinacional estadounidense Trend Micro sobre suas predições de segurança para 2020 conclui que, conquanto as fraudes deepfake estão numa etapa inicial, os empregados, ao final, estarão obrigados a aprender como identificar determinados signos reveladores, "como uma entonación diferente ou o aspecto da pele artificial nos vídeos".