DeepAttacks: Como a IA pode ser usada para ciberataques

Share on facebook
Share on twitter
Share on linkedin
Share on reddit
Share on whatsapp

Estudos recentes de tecnologia revelam que cibercriminosos estão utilizando a inteligência artificial para explorar vulnerabilidades e disseminar ameaças nas Organizações.

De acordo com os relatórios, as investidas maliciosas são motivadas por três razões: cobertura, velocidade e sucesso.

O que você vai ver neste post

Efeitos da IA em ciberataques

A inteligência artificial potencializa os efeitos da exploração de vulnerabilidades, engenharia social e a coleta de informações, permitindo que os atacantes adulterem os modelos de aprendizado de máquina, corrompendo os dados e permitindo o roubo de credenciais.

Os DeepAttacks podem ser usados para adaptar automaticamente um site de phishing para outro, com base no aprendizado do estilo visual da página legítima; ou seja, utilizando a IA, a página fake pode se reconfigurar automaticamente.

Como a IA pode ser usada de forma maliciosa

Os ataques baseados em inteligência artificial estão frequentemente mudando parâmetros e assinaturas automaticamente, em resposta às defesas, sem qualquer interação humana.
Basicamente, o uso da IA associado ao cibercrime potencializa seus efeitos devastadores. Veja o que ele faz:

Os DeepAttacks podem ser usados para adaptar automaticamente um site de phishing para outro, com base no aprendizado do estilo visual da página legítima; ou seja, utilizando a IA, a página fake pode se reconfigurar automaticamente.

  • Falsificação de identidades: através de deepfakes, permitindo que o invasor roube algoritmos proprietários
  • Automatização de ataques: acelerando o ritmo de implantação das campanhas, alcançando mais vítimas em menos tempo.
  • Phishing ‘’turbinado’’: fazendo com que os bots façam campanhas cada vez mais convincentes.
  • Coleta ofensiva de dados para realizar ‘’DeepAttacks’’, investidas projetadas para escapar dos controles de segurança da IA.
  • Geração de nomes de domínio de site fakes inteligentes e adaptáveis aos detectores de domínio maliciosos gerados por DGAs (Algoritmos de Geração de Domínio).
  • Geração de tráfego de rede com botnets, com IA treinada para com os firewalls e Ids conhecidos, para evitar a detecção.

Equipes de defesa devem acompanhar ou superar o ritmo de crescimento dos cibercriminosos

Na mesma proporção que os cibercriminosos desenvolvem métodos de ataque utilizando a inteligência artificial, deve ser a ação das equipes de defesa.  

Isso garantirá que as equipes de blue team e resposta à incidentes consigam filtrar automaticamente, por meio de inteligência artificial, os eventos e os incidentes, realizando a análise manual daqueles que podem causar algum dano, e reajam nas situações nas quais os robôs (bots) costumam realizar múltiplas investidas simultâneas e paralisam a defesa. 

A inteligência artificial na cibersegurança poderá identificar falsos positivos de maneira mais rápida e acurada, bem como agir à tempo para deter o incidente. 

Modelos de defesa contra ataques de IA

Existem dois formatos de defesas contra este tipo de ataque. Veja:

  • Aprendizagem supervisionada: possui um guia e escopo definido, incluindo perguntas e respostas específicas. Além disso, precisa ser alimentado com exemplos para aprender a situação. Problema deste modelo: caso apareça um malware diferente do atual, o sistema não identificará e não saberá lidar adequadamente. Variações são um grande problema para o aprendizado supervisionado.
  • Aprendizagem não supervisionada: não há guia. O escopo é desenvolvido com base nas necessidades atuais. Não precisa ser alimentado com exemplos; por isso, sua capacidade de mudar e se adaptar à medida que o problema muda é maior.

Dicas para evitar esse tipo de ataque

A única maneira de combater uma máquina é através de outra máquina. Os profissionais de segurança devem introduzir a inteligência artificial na defesa o quanto antes, e não confiar apenas em mecanismos tradicionais.

  1. Adotem ferramentas de análise
  2. Apliquem testes de segurança, proteção e monitoramento de modelos com MLOps (Machine Learning Operations). O MLOps é composto de aprendizado de máquina e operações de tecnologia da informação, envolvendo a colaboração entre cientistas de dados e profissionais de TI para produzir algoritmos de aprendizado de máquina. É considerado a melhor prática para as empresas executarem AI com sucesso.
  3. Automatizem defesas com bots

Previna ataques cibernéticos, erros e violações de dados

O VaultOne é uma solução avançada de gerenciamento de acesso privilegiado (PAM) que protege a sua empresa contra ataques cibernéticos, erro humano e violações de dados, utilizando a metodologia zero trust como defesa.
O VaultOne tem fácil implementação e integração com soluções de inteligência artificial e monitoramento de eventos (SIEM).
Fale com nossos especialistas e veja o VaultOne em ação.