Safetica Blogs

O que procurar nas funcionalidades de IA de um fornecedor em 2025

Written by Sample HubSpot User | 10/dez/2025 9:00:00

A IA está em todo o lado e não dá sinais de abrandar. Em 2025, a adoção global de IA atingirá 378 milhões de utilizadores, com o mercado avaliado em 244 mil milhões de dólares. Mais de 61 % dos adultos americanos utilizaram IA nos primeiros seis meses de 2025 e quase um em cada cinco depende dela diariamente.

Contudo, a IA generativa é conhecida pelos seus erros, o que tem impedido a sua adoção plena em setores que exigem extrema precisão, ou em setores regulados como a saúde e as finanças. Por razões semelhantes, as soluções de IA em cibersegurança devem ser abordadas com elevados níveis de escrutínio. Uma IA pobre numa solução pode resultar em falsos positivos excessivos e num enfraquecimento da privacidade do utilizador, em vez de uma maior segurança de dados.

Infelizmente, estas considerações não travaram os fornecedores ávidos por entrar na onda da IA. Encheram os seus argumentos de marketing com soluções rotuladas com IA, da deteção de ameaças e automação até ofertas cloud com IA integrada. Da perspetiva de um líder de cibersegurança, a questão é se estas soluções são apenas mais hype ou algo que melhorará significativamente a postura de segurança de uma organização. Chegaram inclusive a reembrulhar funcionalidades antigas como IA. Por exemplo, o setor da cibersegurança usa machine learning há anos, e esta ferramenta antiga está agora a ser fortemente promovida como IA.

Neste artigo, vamos cortar com o hype e analisar o que deve, enquanto líder de segurança, procurar nas ofertas de IA dos fornecedores.

 

Quando a IA é apenas marketing

Os fornecedores de cibersegurança têm reembrulhado funcionalidades existentes como IA para tirar partido do hype atual, muitas vezes sem acrescentar novas capacidades. Muitas funcionalidades adaptativas, como a análise comportamental, têm origem em técnicas de machine learning, como árvores de decisão ou clustering, desenvolvidas bem antes da explosão da IA entre 2023 e 2025. Os fornecedores agora reembrulham-nas como IA avançada para se alinharem com as tendências do mercado.

Os fornecedores também estão ativamente a fazer "agent washing", o reembrulhar de produtos existentes como agentic, quando lhes faltam capacidades agentic substanciais, refere a Gartner. Setenta e seis por cento dos profissionais de segurança concordam que o mercado de IA está saturado de hype.

O reembrulho permite aos fornecedores aumentar preços ou atrair compradores que esperam segurança superior, mas as funcionalidades muitas vezes pouco fazem além de igualar a eficácia de versões anteriores. No pior cenário, um fornecedor está apenas a vender um produto antigo e a apregoá-lo como a solução mais recente e melhor.

Embora alguns fornecedores integrem inovações genuínas como deep learning, a opacidade em torno dos detalhes — como informação sobre o modelo ou os dados de treino — torna as fronteiras pouco claras. Os compradores devem exigir provas de melhorias, como a redução de falsos positivos, para evitar investir em tecnologia legada reembrulhada.

"Vemos a promessa da deteção de ameaças orientada por IA, mas, na maior parte das vezes, não passa de simples correspondência de assinaturas com um novo rótulo de marketing", diz Zbyněk Sopuch, CTO da Safetica. "Outra tática popular é oferecer chatbots ou 'assistentes alimentados por IA' que reembrulham bases de conhecimento estáticas, mas que não reduzem verdadeiramente a carga de trabalho dos analistas. A chave é repensar todo o processo e focar-se no valor acrescentado, mas não é essa a situação atual do mercado."

Zbyněk Sopuch, CTO da Safetica

 

Quando a IA apenas agrava o problema

Alguns fornecedores de cibersegurança integram funcionalidades de IA que se limitam a amplificar o ruído e os sinais, sobrecarregando as equipas em vez de resolver os problemas centrais. As novas ferramentas acabam por gerar fadiga de alertas e apenas aumentam o problema da complexidade dos fornecedores.

Existe também uma lacuna na perceção: 71 % dos executivos afirmam que a IA aumenta a produtividade, mas apenas 22 % dos analistas de SOC concordam. Como afirma um analista: "Não é que não queiramos usar IA, simplesmente não confiamos que funcione de forma fiável sem que a estejamos a vigiar."

"IA mal afinada pode inundar as equipas com falsos positivos, gerando fadiga de alertas em vez de a reduzir", diz Sopuch. "Muitas empresas limitam-se a 'implementar IA' e dão o trabalho por feito, sem pensar nisso como um ponto de partida."

Zbyněk Sopuch, CTO da Safetica


A própria natureza da IA pode causar problemas, como quando os colaboradores introduzem dados em LLMs cuja falta de proteção da privacidade pode levar inadvertidamente a fugas de dados. No caso do ChatGPT, a situação é especialmente grave, dado que a OpenAI está atualmente sob ordem judicial para conservar perpetuamente todas as cópias das conversas dos utilizadores, mesmo depois de estes as eliminarem.

As ferramentas para utilizadores finais com IA incorporada têm sido a causa de muitas noites mal dormidas para os profissionais de cibersegurança. Seja o Windows Recall a captar capturas de ecrã de cada ação do utilizador, agentes de programação que descontrolam, assistentes de IA a gravar e transcrever todas as reuniões confidenciais, ou código assistido por IA a ser distribuído com erros, as empresas têm sido imprudentes ao lançar ferramentas sem testes suficientes, num esforço por apanhar a onda.

Os fornecedores de cibersegurança não são diferentes. O FOMO em torno da necessidade de colar um rótulo de IA em todos os serviços é palpável. As soluções de IA apressadas têm conduzido sistematicamente a vulnerabilidades, e a segurança e o risco associados às funcionalidades e produtos de IA são pensados como algo posterior, quando sequer são considerados. Nestes casos, a IA pode na verdade estar a contribuir para a superfície de ataque e exposição ao risco de uma organização, em vez de a ajudar a geri-las.

 

Onde a IA é verdadeiramente útil

Ao avaliar fornecedores que estão a comercializar e a apresentar funcionalidades alimentadas por IA, é importante considerar os fundamentos em qualquer decisão de aquisição.

"Ao avaliar a IA num produto, os líderes de segurança devem focar-se na praticabilidade", diz Libor Pazdera, Senior Technical Consultant na Safetica. "A IA soa entusiasmante, mas ajuda a sua equipa ou acrescenta mais tarefas? Alguns fornecedores usam 'alimentado por IA' para parecerem modernos, mas muitas vezes é apenas automação básica. Pergunte: o que faz a IA? Consegue explicar as suas decisões? Poupa tempo ou apenas aumenta os alertas? A IA deve ajudar, não substituir nem confundir. Se torna o trabalho da sua equipa mais fácil, é um bom sinal. Se parece um mistério, provavelmente ainda não está pronta."

Libor Pazdera, Senior Technical Consultant na Safetica


Considere as funcionalidades que oferecem automação e questione-se se essa automação irá melhorar ou prejudicar a produtividade. Por exemplo, ações automatizadas baseadas na atividade de eventos podem bloquear automaticamente o acesso dos utilizadores com base num único evento anómalo. Sem intervenção humana para avaliar o nível de risco, isto pode levar a perturbações excessivas. No entanto, o bloqueio automatizado para anomalias com limiar elevado pode ser a diferença entre conter ou não uma violação. Conhecer a nuance por detrás da aplicação destas funcionalidades é necessário ao considerar uma solução adequada para si.

As funcionalidades "inteligentes" que supostamente ajudam com o "ruído" podem, por vezes, gerar elas próprias ruído. Usar LLMs como filtro é um caso de uso potencial. Dependendo dos dados de treino e do quão adaptáveis são, o LLM pode estar suficientemente bem treinado para identificar uma ameaça elevada, despromovendo outros alertas, o que pode efetivamente poupar tempo a uma equipa.

A pergunta mais importante a fazer é se a adoção de IA aumenta as capacidades da equipa. Peça aos fornecedores que mostrem como a sua ferramenta acelera os tempos de resposta.

"Ao avaliar funcionalidades de IA na solução de um fornecedor, os líderes de segurança devem adotar uma perspetiva equilibrada", afirma Radim Travnicek, CISO da Safetica. "Por um lado, a IA traz benefícios significativos: pode acelerar a deteção, automatizar tarefas repetitivas e revelar informação que de outra forma seria perdida."

Radim Travnicek, CISO da Safetica


Não compre o hype, compre o resultado

É fácil cair no hype da IA e sentir FOMO no que toca aos fornecedores, sobretudo quando estes empurram demonstrações apelativas.

Independentemente do pitch deck, peça ao fornecedor que lhe mostre resultados. Pergunte quantas ameaças a ferramenta travou com IA e quantas sem ela. Estudos de caso e exemplos práticos são extremamente úteis aqui e, se a empresa não tiver nenhum, isso significa que as funcionalidades não foram suficientemente testadas no terreno.

Ao focar-se menos nas funcionalidades em si e mais nos resultados, garante que não está apenas a ser conduzido pelo marketing e pensa de forma mais holística sobre como as funcionalidades orientadas por IA podem encaixar no seu departamento específico.

O objetivo é uma organização segura, não uma organização ao estilo do 007 com gadgets vistosos que continuam a deixar passar os maus atores.