A Inteligência Artificial (IA) está a impulsionar grandes mudanças na forma como vivemos e trabalhamos. Há muito para dizer sobre como a IA está a impactar setores como saúde, finanças, educação, retalho, transportes ou energia, mas hoje o nosso foco é exclusivamente na cibersegurança.
De um lado da barricada, encontramos atores maliciosos (ou hackers) que executam ciberataques em vários alvos, nomeadamente empresas, numa tentativa deliberada de causar danos. Do outro lado, encontramos especialistas em cibersegurança que tentam prevenir ou mitigar tais ameaças. Ambos os lados estão a aproveitar a Inteligência Artificial para melhorar o seu desempenho e passar à frente. Então... quem está a ganhar?
“A IA ofensiva evolui mais rapidamente que a IA defensiva devido à sua natureza oportunista e irrestrita. Não há regras, não há limites. Os atores maliciosos podem usar literalmente qualquer coisa para explorar fraquezas e aceder a dados não autorizados, ou manipular pessoas para ações específicas. A IA defensiva, embora estando a avançar, é regulada por leis e frameworks de proteção de dados, que atrasam o seu desenvolvimento devido a requisitos de conformidade e processos regulatórios”, começa por explicar Omar Jellouli, Analista de Segurança da Informação.
Os atores maliciosos são rápidos a explorar qualquer vulnerabilidade, fazendo-se valer da criatividade da IA para gerar malware polimórfico, automatizar phishing e até simular deepfakes realistas. Por exemplo, a IA ofensiva pode usar modelos generativos para criar e-mails capazes de imitar contactos confiáveis ou injetar gatilhos subtis que posteriormente permitem jailbreaks do modelo.
Os especialistas em cibersegurança aproveitam a IA defensivamente em dois níveis: prevenção e mitigação. Como Omar explica, “é como em qualquer outro campo: a polícia tenta impedir que os criminosos cometam crimes; os médicos tentam impedir que os pacientes fiquem doentes; e na cibersegurança tentamos impedir que os ciberataques sequer aconteçam.”
Como é que se consegue isto? Recolhendo inteligência sobre ameaças – dados sobre motivos, alvos e comportamento dos atores maliciosos –, o que melhora significativamente a precisão das ferramentas preventivas.
Ferramentas defensivas também são implementadas durante a resposta a incidentes. “No entanto,” esclarece Omar, “frequentemente dependem de análise comportamental, que pode levar a falsos positivos devido à variabilidade no comportamento do utilizador ou do sistema.”
Os algoritmos de Machine Learning formam a base dos sistemas modernos de IA. Uma abordagem proeminente de ML é, segundo Omar, Supervised Learning (aprendizagem supervisionada) – uma técnica onde o modelo é treinado com base em conjuntos de dados rotulados com inputs e outputs conhecidos. “O algoritmo identifica padrões e associações durante o treino para fazer previsões ou classificações precisas. Após o treino, é testado em dados não conhecidos para medir a sua fiabilidade e eficácia,” elabora o especialista.
Este método é amplamente utilizado em:
Um Large Language Model (LLM) é um tipo de modelo de Machine Learning capaz de compreender, processar e gerar linguagem humana. Treinados em vastas quantidades de dados de texto, LLM como o ChatGPT, Google Gemini ou Claude são utilizados em cibersegurança, maioritariamente, para análise de inteligência de ameaças. Extraem Indicadores de Comprometimento (IOC) através de feeds de código aberto, monitorização da dark web e relatórios de ameaças.
Os LLM também suportam:
A Inteligência Artificial também está a transformar o modo como os serviços de cibersegurança são projetados e implementados. “A IA leva as organizações a redesenharem as suas arquiteturas de segurança para lidarem com processamento de dados em larga escala e melhorarem a deteção e resposta. Soluções de IA baseadas na cloud desempenham um forte papel, oferecendo escalabilidade e capacidade de ação em tempo real”, explica Omar.
Grandes fornecedores de cloud como o Amazon Web Services (AWS), Microsoft Azure e Google Cloud utilizam as suas próprias ferramentas com IA para deteção de ameaças (ex.: AWS GuardDuty, Microsoft Defender, Google Chronicle) com o objetivo de processarem conjuntos massivos de dados em tempo real e identificarem ameaças rapidamente.
Apesar destas vantagens, desafios como a privacidade de dados e a dependência da cloud persistem. No entanto, há maneiras de os contornar. “Arquiteturas híbridas estão a emergir, com modelos de IA treinados na cloud e implementados localmente para uma resposta mais rápida”, revela Omar.
Implementar ferramentas alimentadas por IA em cibersegurança é “não negociável”, afirma Omar. “É como os primórdios da Internet. É imparável. Esta relação de amor e ódio com a IA é o que nos está a guiar, por isso é natural que haja consequências positivas e negativas.”
| Envenenamento de dados vs. Ataque adversarial | |
| Definições | Envenenamento de dados ocorre quando um atacante contamina o conjunto de dados de treino, tornando difícil determinar como os dados influenciam o modelo. Por exemplo, modificar valores numa base de dados financeira poderia levar a cálculos incorretos. Ataques adversariais manipulam um modelo – seja durante ou após o treino – alterando subtilmente os inputs. Por exemplo, um veículo autónomo pode interpretar mal um sinal de STOP se a sua aparência for adulterada. |
| Soluções | Treino adversarial: Fortalece modelos de IA contra inputs manipulados.Pipelines de validação de dados: Filtram e detetam dados maliciosos antes de chegarem ao sistema de IA.Verificações da integridade do modelo: Verificam regularmente que os sistemas de IA funcionam como pretendido.Controlo de acesso: Restringe o acesso a sistemas de IA e dados críticos.Atualizações e patches regulares: Mantêm a segurança em soluções de IA baseadas na cloud.Arquiteturas híbridas de IA: Mantêm dados sensíveis nas instalações físicas para minimizar a exposição dos mesmos. |
A IA está escrita por todo o lado no nosso futuro – não há dúvidas sobre isso. Mas para onde estamos exatamente a caminhar, e como irá a IA transformar a área da cibersegurança, especificamente? Omar Jellouli partilha as suas previsões:
Em suma: “A IA redefinirá a cibersegurança ao tornar-se uma parte mais inteligente e integral de como defendemos sistemas. Não apenas tornará as ferramentas existentes mais rápidas ou mais precisas, como criará formas inteiramente novas de pensar sobre segurança”, acredita Omar.
Para manterem estratégias de cibersegurança o mais atualizadas possível, as organizações devem:
Vamos conhecer alguns acontecimentos e inovações recentes que ilustram vários aspetos da relação entre a IA e a cibersegurança:
A interseção da IA com a cibersegurança é uma faca de dois gumes. Enquanto a IA melhora capacidades de deteção de ameaças e resposta a incidentes, também capacita adversários com ferramentas poderosas para phishing automatizado, envenenamento de dados e jailbreaks de modelo. Casos reais como a exposição da base de dados DeepSeek e avanços como a replicação do DeepSeek R1 por menos de $30 enfatizam a importância de abordar vulnerabilidades de segurança, tanto avançadas como básicas.
Para navegar estes desafios, as organizações devem impor medidas rigorosas de segurança de dados, monitorizar continuamente ameaças emergentes, equilibrar automação impulsionada por IA com supervisão humana e manter transparência na curadoria de dados.
Ao incorporares boas práticas de frameworks como o NIST Cybersecurity Framework e o OWASP Top Ten, as empresas podem construir defesas mais resilientes e promover um futuro digital mais seguro.
A Inteligência Artificial (IA) está a impulsionar grandes mudanças na forma como vivemos e trabalhamos. Há muito para dizer sobre como a IA está a impactar setores como saúde, finanças, educação, retalho, transportes ou energia, mas hoje o nosso foco é exclusivamente na cibersegurança.
De um lado da barricada, encontramos atores maliciosos (ou hackers) que executam ciberataques em vários alvos, nomeadamente empresas, numa tentativa deliberada de causar danos. Do outro lado, encontramos especialistas em cibersegurança que tentam prevenir ou mitigar tais ameaças. Ambos os lados estão a aproveitar a Inteligência Artificial para melhorar o seu desempenho e passar à frente. Então... quem está a ganhar?
“A IA ofensiva evolui mais rapidamente que a IA defensiva devido à sua natureza oportunista e irrestrita. Não há regras, não há limites. Os atores maliciosos podem usar literalmente qualquer coisa para explorar fraquezas e aceder a dados não autorizados, ou manipular pessoas para ações específicas. A IA defensiva, embora estando a avançar, é regulada por leis e frameworks de proteção de dados, que atrasam o seu desenvolvimento devido a requisitos de conformidade e processos regulatórios”, começa por explicar Omar Jellouli, Analista de Segurança da Informação.
Os atores maliciosos são rápidos a explorar qualquer vulnerabilidade, fazendo-se valer da criatividade da IA para gerar malware polimórfico, automatizar phishing e até simular deepfakes realistas. Por exemplo, a IA ofensiva pode usar modelos generativos para criar e-mails capazes de imitar contactos confiáveis ou injetar gatilhos subtis que posteriormente permitem jailbreaks do modelo.
Os especialistas em cibersegurança aproveitam a IA defensivamente em dois níveis: prevenção e mitigação. Como Omar explica, “é como em qualquer outro campo: a polícia tenta impedir que os criminosos cometam crimes; os médicos tentam impedir que os pacientes fiquem doentes; e na cibersegurança tentamos impedir que os ciberataques sequer aconteçam.”
Como é que se consegue isto? Recolhendo inteligência sobre ameaças – dados sobre motivos, alvos e comportamento dos atores maliciosos –, o que melhora significativamente a precisão das ferramentas preventivas.
Ferramentas defensivas também são implementadas durante a resposta a incidentes. “No entanto,” esclarece Omar, “frequentemente dependem de análise comportamental, que pode levar a falsos positivos devido à variabilidade no comportamento do utilizador ou do sistema.”
Os algoritmos de Machine Learning formam a base dos sistemas modernos de IA. Uma abordagem proeminente de ML é, segundo Omar, Supervised Learning (aprendizagem supervisionada) – uma técnica onde o modelo é treinado com base em conjuntos de dados rotulados com inputs e outputs conhecidos. “O algoritmo identifica padrões e associações durante o treino para fazer previsões ou classificações precisas. Após o treino, é testado em dados não conhecidos para medir a sua fiabilidade e eficácia,” elabora o especialista.
Este método é amplamente utilizado em:
Um Large Language Model (LLM) é um tipo de modelo de Machine Learning capaz de compreender, processar e gerar linguagem humana. Treinados em vastas quantidades de dados de texto, LLM como o ChatGPT, Google Gemini ou Claude são utilizados em cibersegurança, maioritariamente, para análise de inteligência de ameaças. Extraem Indicadores de Comprometimento (IOC) através de feeds de código aberto, monitorização da dark web e relatórios de ameaças.
Os LLM também suportam:
A Inteligência Artificial também está a transformar o modo como os serviços de cibersegurança são projetados e implementados. “A IA leva as organizações a redesenharem as suas arquiteturas de segurança para lidarem com processamento de dados em larga escala e melhorarem a deteção e resposta. Soluções de IA baseadas na cloud desempenham um forte papel, oferecendo escalabilidade e capacidade de ação em tempo real”, explica Omar.
Grandes fornecedores de cloud como o Amazon Web Services (AWS), Microsoft Azure e Google Cloud utilizam as suas próprias ferramentas com IA para deteção de ameaças (ex.: AWS GuardDuty, Microsoft Defender, Google Chronicle) com o objetivo de processarem conjuntos massivos de dados em tempo real e identificarem ameaças rapidamente.
Apesar destas vantagens, desafios como a privacidade de dados e a dependência da cloud persistem. No entanto, há maneiras de os contornar. “Arquiteturas híbridas estão a emergir, com modelos de IA treinados na cloud e implementados localmente para uma resposta mais rápida”, revela Omar.
Implementar ferramentas alimentadas por IA em cibersegurança é “não negociável”, afirma Omar. “É como os primórdios da Internet. É imparável. Esta relação de amor e ódio com a IA é o que nos está a guiar, por isso é natural que haja consequências positivas e negativas.”
| Envenenamento de dados vs. Ataque adversarial | |
| Definições | Envenenamento de dados ocorre quando um atacante contamina o conjunto de dados de treino, tornando difícil determinar como os dados influenciam o modelo. Por exemplo, modificar valores numa base de dados financeira poderia levar a cálculos incorretos. Ataques adversariais manipulam um modelo – seja durante ou após o treino – alterando subtilmente os inputs. Por exemplo, um veículo autónomo pode interpretar mal um sinal de STOP se a sua aparência for adulterada. |
| Soluções | Treino adversarial: Fortalece modelos de IA contra inputs manipulados.Pipelines de validação de dados: Filtram e detetam dados maliciosos antes de chegarem ao sistema de IA.Verificações da integridade do modelo: Verificam regularmente que os sistemas de IA funcionam como pretendido.Controlo de acesso: Restringe o acesso a sistemas de IA e dados críticos.Atualizações e patches regulares: Mantêm a segurança em soluções de IA baseadas na cloud.Arquiteturas híbridas de IA: Mantêm dados sensíveis nas instalações físicas para minimizar a exposição dos mesmos. |
A IA está escrita por todo o lado no nosso futuro – não há dúvidas sobre isso. Mas para onde estamos exatamente a caminhar, e como irá a IA transformar a área da cibersegurança, especificamente? Omar Jellouli partilha as suas previsões:
Em suma: “A IA redefinirá a cibersegurança ao tornar-se uma parte mais inteligente e integral de como defendemos sistemas. Não apenas tornará as ferramentas existentes mais rápidas ou mais precisas, como criará formas inteiramente novas de pensar sobre segurança”, acredita Omar.
Para manterem estratégias de cibersegurança o mais atualizadas possível, as organizações devem:
Vamos conhecer alguns acontecimentos e inovações recentes que ilustram vários aspetos da relação entre a IA e a cibersegurança:
A interseção da IA com a cibersegurança é uma faca de dois gumes. Enquanto a IA melhora capacidades de deteção de ameaças e resposta a incidentes, também capacita adversários com ferramentas poderosas para phishing automatizado, envenenamento de dados e jailbreaks de modelo. Casos reais como a exposição da base de dados DeepSeek e avanços como a replicação do DeepSeek R1 por menos de $30 enfatizam a importância de abordar vulnerabilidades de segurança, tanto avançadas como básicas.
Para navegar estes desafios, as organizações devem impor medidas rigorosas de segurança de dados, monitorizar continuamente ameaças emergentes, equilibrar automação impulsionada por IA com supervisão humana e manter transparência na curadoria de dados.
Ao incorporares boas práticas de frameworks como o NIST Cybersecurity Framework e o OWASP Top Ten, as empresas podem construir defesas mais resilientes e promover um futuro digital mais seguro.