Rui Martins, activista e dirigente associativo, escreve semanalmente aos domingos no LUX24.

Com o desenvolvimento e popularidade crescente de ferramentas de Inteligência Artificial (IA) será de esperar, em breve, que os hackers comecem a usar também ferramentas de IA para se fazerem passar por pessoas reais nas suas interacções com os seus alvos e, mais concretamente, nas suas campanhas de Phishing por e-mail, muito direccionadas aos utilizadores das organizações, aumentando assim a eficácia das mesmas e as taxas de sucesso com que conseguem instalar malware nas organizações e encriptar ficheiros por ransomware.

Será assim de esperar que comecemos a observar a aparição de entidades de IA capaz de se fazerem passar por “pessoas de confiança” dos seus alvos, imitando frases e estilos a partir de amostras de mensagens reais e capturadas nas caixas de correios invadidas e pertencentes a esses interlocutores habituais dos alvos por forma a criar um nível de credibilidade elevado que aumenta a possibilidade de sucesso do ataque.

Actualmente, a maior parte dos incidentes de segurança são apenas detectados quando o cliente, ou a sua operação, são impactados e já depois da intrusão acontecer e fazer danos. Isto significa que é preciso ser alertado em tempo real e ainda mais se a tecnologia utilizada for tão sofisticada como os futuros (para breve) ataques por IA e uma reação capaz de detectar ataques por IA em tempo real só pode usar, também ela,  Inteligência Artificial.

Com efeito, por sofisticado que seja esse ataque será sempre um ataque massificado e automático e criará sempre algum tipo de consequência nos sistemas de organização (caso contrário: não será bem sucedido) e é no momento do impacto que uma IA “amiga” pode agir e detectar que algo que não devia ter acontecido e alertar os responsáveis pela Segurança Informática em Tempo Real.

Para que uma tal IA “amiga” possa agir esta tem que ser previamente alimentada com uma série de padrões do comportamento normal de vários sistemas, analisá-los durante algum tempo e formar padrões de normalidade para que, depois, possa reagir quando ocorrerem desvios a esses mesmos padrões.

É assim possível combater tentativas de introduzir malware ou ransomware nas organizações usando IA com IA.

Criando uma linha defesa (que pode ser complementar) de IAs “amigas”, com ferramentas de autoaprendizagem (“machine learning”), escaláveis e infinitamente adaptáveis a métodos de invasão que serão cada vez mais eficazes e evasivos, escondidos no meio do “ruído” das redes internas, permanentemente atentas a alterações de padrões de comportamento dos utilizadores da nossa rede e que possa completar a conhecida escassez mundial de recursos humanos em cibersegurança que existe hoje em dia em Portugal e no mundo em geral.

Publicidade
Falhas, erros, imprecisões, sugestões?
Por favor fale connosco.
Publicidade