O surgimento da inteligência artificial (IA) generativa representa um ponto de virada no cenário das ameaças cibernéticas. Os agentes maliciosos souberam capitalizar rapidamente essa tecnologia para traduzir idiomas com fluência excepcional, escrever códigos funcionais e produzir imagens ultrarrealistas para a aplicação dos mais diversos tipos de golpes.

Soluções legadas de proteção contra fraude e acesso seguro atingiram seu ponto de ruptura e são cada vez menos eficazes contra ameaças avançadas. 

De acordo com o relatório Faces of Fraud, da Appgate, empresa de acesso seguro, a maioria (83%) das instituições financeiras ouvidas dizem não conseguir acompanhar o ritmo de evolução das fraudes, cada vez mais impulsionadas pela IA.

IAs podem, por exemplo, analisar grandes quantidades de mídias sociais, e-mails e comunicações internas para criar ataques de phishing extremamente convincentes e muito mais difíceis de serem bloqueados por filtros de spam do que os ataques tradicionais desse tipo.

Além disso, a IA generativa pode modificar linhagens de malware existentes ou criar novas do zero, que se adaptam rapidamente às medidas de segurança convencionais, e levar a taxas de infecção mais altas.

Deepfakes realistas de áudio ou vídeo projetados por IA podem se passar por executivos de uma empresa com o objetivo de enganar os alvos para que compartilhem credenciais de acesso ou dados confidenciais. Juntamente com as táticas de engenharia social baseadas em IA, deepfakes evoluídos podem enganar até mesmo funcionários bem treinados.

Mesmo antes da disseminação das ferramentas comerciais de IA, as soluções de segurança convencionais já se mostravam pouco efetivas para proteger adequadamente os recursos e forças de trabalho distribuídos. “Soluções tradicionais de acesso seguro, como firewalls, VPNs e ferramentas online de prevenção à fraude foram criadas quando todos dentro de um perímetro corporativo munidos de senha e autenticação multifator eram considerados confiáveis. Apesar de  essas ferramentas tradicionais nunca terem sido perfeitas, agora elas são realmente ineficazes contra a manipulação e falsificação produzidas pelas IAs”, afirma Marcos Tabajara, country manager da Appgate no Brasil.

Com ataques aumentando em escala e sofisticação, o potencial de perdas financeiras, danos à reputação e penalidades regulatórias é ainda mais elevado e representa um risco imediato para as organizações. Por isso, CISOs e líderes de TI não devem se limitar a uma postura defensiva, devendo adotar uma estratégia proativa para neutralizar novas ameaças cibernéticas.

Medidas incluem a integração de proteção contra fraudes baseada em IA adaptativa e  aprendizado de máquina com soluções de autenticação adaptativas. Equipes de segurança e rede também devem considerar a migração para uma arquitetura de segurança baseada no Acesso de Rede Zero Trust (ZTNA), a fim de aplicar princípios-chave como:

  • Acesso com privilégio mínimo: controle granular sobre o acesso de usuários e dispositivos, garantindo que recebam apenas autorizações mínimas necessárias para realizar seus trabalhos, limitando o possível impacto de uma violação.
  • Autenticação e verificação contínuas: monitoramento e validação de usuários e dispositivos a todo momento, adaptando-se em tempo real a quaisquer mudanças de comportamento ou anomalias que possam indicar uma violação.
  • Micro-segmentação: criação de um “segmento de um” dinâmico entre o usuário e os recursos atribuídos com micro firewalls baseados em sessões e just-in-time que acabam com o movimento lateral não sancionado caso ocorra uma violação.

“A IA generativa trouxe uma série de inovações para o campo dos negócios, agregando valor significativo a produtos e serviços, mas é preciso estar atento às práticas criminosas que se valem desses mesmos recursos. Ao incorporar práticas de cibersegurança proativas, as organizações podem aprimorar suas defesas e navegar com eficácia em um cenário de fraude em constante evolução”, finaliza Tabajara.

302275?partnerId=3665