Recentemente, várias pessoas foram pegas de surpresa ao receber uma mensagem no WhatsApp contendo um arquivo compactado com um nome estranho. Esse arquivo fazia parte de um golpe aplicado para roubar dados dos computadores das pessoas que o executassem.
Esse tipo de golpe não é novo, ele já foi amplamente utilizado no passado, especialmente por meio de contas de e-mail. A diferença agora está no uso de tecnologias de Inteligência Artificial, que tornam as fraudes mais sofisticadas e perigosas. Mas afinal, o que precisamos saber sobre os novos golpes digitais potencializados pela IA?
A popularização da Inteligência Artificial trouxe benefícios enormes, da automação de tarefas à criação de conteúdos personalizados. Porém, como ocorre com qualquer tecnologia poderosa, também surgiram novas formas de crimes. Hoje, golpes digitais estão se tornando mais convincentes, sofisticados e acessíveis, graças ao uso de ferramentas de IA disponíveis ao público em geral.
A Escalada dos Golpes Digitais com IA
Nos últimos meses, casos envolvendo deepfakes, clonagem de voz e engenharia social automatizada ganharam destaque na mídia. Em Hong Kong, por exemplo, um funcionário foi enganado em uma videoconferência com deepfakes realistas de executivos da empresa e transferiu o equivalente a US$ 25 milhões aos golpistas. O episódio demonstra que, quando bem planejados, esses golpes podem enganar até profissionais experientes.
A Europol já alertou que os criminosos estão entre os primeiros a adotar novas tecnologias. Em um relatório de 2023, a agência destacou que ferramentas de IA generativa podem “turbinar fraudes, falsificações e golpes de engenharia social, reduzindo custos e ampliando o alcance dos criminosos”. Hoje, não é mais necessário dominar técnicas avançadas, qualquer pessoa com acesso a um chatbot ou software de clonagem de voz pode montar um golpe convincente.
Fator Emocional
Um dos casos mais preocupantes é a clonagem de voz. Com poucos segundos de áudio disponíveis, muitas vezes retirados de vídeos ou mensagens públicas, é possível reproduzir com alta precisão a voz de uma pessoa. Nos Estados Unidos, diversos pais relataram ter recebido ligações falsas em que “ouviam” a voz dos filhos pedindo resgate, quando, na verdade, tratava-se de uma imitação gerada por IA.
Situações assim exploram o fator emocional, reduzindo nossa capacidade de reação crítica. Uma dica importante nesses casos, principalmente quando envolve familiares ou amigos, é fazer perguntas que só a pessoa verdadeira saberia responder, como o nome de um vizinho, um apelido íntimo ou uma lembrança familiar. Isso pode desestabilizar o golpista e ajudar a identificar a fraude.
O risco maior é que esses golpes não exigem mais, grandes quadrilhas organizadas. Um único indivíduo, com acesso à tecnologia certa, pode atingir milhares de vítimas em escala global. A barreira de entrada caiu, e o potencial de dano cresceu exponencialmente.
Como se Proteger dos Golpes Digitais?
Diante desse cenário, é fundamental desenvolvermos um olhar crítico sobre conteúdos digitais. Desconfiar de mensagens urgentes, verificar links, confirmar identidades por outros canais e adotar autenticação em dois fatores são medidas simples que podem evitar prejuízos.
Além disso, é urgente que governos, plataformas e empresas de tecnologia invistam em regulação e educação digital. A própria MIT Technology Review ressalta que a corrida para implementar IA deve vir acompanhada de políticas de segurança claras e mecanismos de responsabilização.
A IA não é a vilã, mas, nas mãos erradas, pode se tornar a ferramenta perfeita para enganar. Em um mundo onde “ver para crer” já não é garantia de nada, desconfiar é nossa melhor defesa.