A cibersegurança é um pilar vital para a confiança e resiliência das sociedades digitais, e, à medida que as ameaças cibernéticas se tornam mais complexas e sofisticadas, novas soluções tecnológicas são necessárias para proteger infraestruturas críticas e dados sensíveis. Nesse cenário, a inteligência artificial (IA) surge como uma ferramenta poderosa, capaz de transformar a forma como os sistemas de defesa cibernética são projetados e geridos. Recentemente, o Dr. Guilherme Barcha Cardoso Schneider, especialista em ciência da computação da Logos University International, publicou um artigo inovador na revista Cognitionis intitulado “Princípios para a Implementação Segura e Ética de Agentes de Inteligência Artificial na Defesa Cibernética”. O estudo propõe diretrizes cruciais para garantir que os agentes de IA sejam implementados de forma segura, ética e responsável na defesa cibernética.
Uma Visão Abrangente sobre os Agentes de IA
O artigo, aceito para publicação em setembro de 2025, investiga como os agentes de IA podem ser usados para reforçar a defesa cibernética. Esses agentes, que possuem capacidades autônomas ou semi-autônomas, são capazes de perceber ambientes cibernéticos complexos, identificar ameaças e implementar respostas, de maneira muito mais rápida e eficiente do que os métodos tradicionais baseados apenas em humanos. O Dr. Schneider, através de uma revisão estruturada da literatura acadêmica e relatórios técnicos publicados entre 2018 e 2025, explora o funcionamento desses sistemas e suas aplicações no contexto da cibersegurança.
Em sua pesquisa, Schneider desenvolve uma taxonomia funcional para classificar os diferentes tipos de agentes de IA usados na defesa cibernética, como agentes de percepção, análise, orquestração e resposta. Ele destaca a importância de arquiteturas de defesa em profundidade, que combinam tecnologias tradicionais com a automação e inteligência dos agentes de IA, criando camadas adicionais de proteção contra intrusões.
Desafios Éticos e Técnicos: O Lado Sombrio da Autonomia
Embora a aplicação de IA na cibersegurança traga benefícios consideráveis, o estudo também aponta diversos desafios técnicos e éticos associados ao uso de agentes autônomos. O Dr. Schneider alerta sobre as vulnerabilidades dos sistemas de IA, como a possibilidade de serem manipulados através de ataques como “injeção de prompt” e “exploits de confiança entre agentes”. Esses riscos podem comprometer a eficácia dos sistemas de defesa, tornando-os suscetíveis a ações maliciosas, caso sejam invadidos ou mal configurados.
Outro ponto abordado pela pesquisa é a opacidade dos sistemas de IA. Como os agentes de IA atuam de forma independente, muitas vezes os analistas de segurança não conseguem entender completamente as decisões tomadas pelos sistemas, o que levanta questões sobre a responsabilidade pelas ações executadas. A transparência e a supervisão humana, conforme destacado por Schneider, são essenciais para garantir que a responsabilidade pelos resultados não seja delegada totalmente à IA.
Governança: Como Garantir a Responsabilidade Humana na Era da Autonomia
Um aspecto fundamental da pesquisa é a proposta de um modelo de governança que permita o uso responsável da IA na cibersegurança. O Dr. Schneider enfatiza que, para que os agentes de IA sejam eficazes, eles precisam ser integrados a uma arquitetura de governança que assegure a supervisão humana em todos os níveis. Ele propõe um modelo de maturidade para a adoção de agentes autônomos, no qual as organizações podem adotar esses sistemas de forma gradual, começando com funções assistivas e, somente após avaliação rigorosa, evoluindo para sistemas totalmente autônomos.
Além disso, o estudo sugere um checklist de implantação, com parâmetros como governança de dados, controles de segurança, e avaliações contínuas, para garantir que os agentes operem de forma alinhada com os valores éticos e os requisitos legais da sociedade.
Agentes de IA como Pilar da Resiliência Cibernética
O estudo de Schneider conclui que os agentes de IA podem, de fato, fortalecer a resiliência cibernética, mas apenas quando implementados de maneira cuidadosa e controlada. A autonomia dos agentes deve ser alinhada com a capacidade de supervisão humana, e a adoção de IA na defesa cibernética deve ser acompanhada por políticas explícitas de governança e responsabilidade.
O Dr. Schneider ressalta que a IA, se mal gerida, pode representar tanto uma solução quanto uma vulnerabilidade, a linha entre usar a tecnologia para proteger ou comprometer sistemas críticos é tênue. Portanto, as organizações precisam equilibrar inovação com precauções rigorosas, sempre mantendo a responsabilidade humana no comando.
Referência da Pesquisa:
O artigo “Princípios para a Implementação Segura e Ética de Agentes de Inteligência Artificial na Defesa Cibernética” foi publicado na revista Cognitionis (v.8, n.2, p.01-17, e767) e está disponível para acesso público através do DOI 10.38087/2595.8801.767.
Link: https://revista.cognitioniss.org/index.php/cogn/article/view/767
A Revista Científica Cognitionis
A Revista Científica Cognitionis é uma publicação de acesso aberto que se destaca no cenário acadêmico internacional, especialmente por sua indexação em importantes bases de dados globais. Um dos seus maiores diferenciais é a indexação no ERIH PLUS, um dos mais prestigiados e seletivos indexadores da Europa, dedicado a periódicos de alta qualidade nas áreas de ciências sociais e humanas. Estar incluída no ERIH PLUS não apenas fortalece a visibilidade da revista, mas também atesta sua relevância e credibilidade perante a comunidade científica europeia, sendo um selo de excelência para pesquisadores que buscam ampliar o impacto de seus trabalhos. Além disso, a Cognitionis também está presente em outras plataformas renomadas, como Qualis Capes (B3), Latindex, ROAD, Crossref e Google Acadêmico, garantindo que seus artigos sejam amplamente acessados e reconhecidos globalmente. Essa combinação de indexações de alto nível coloca a Revista Científica Cognitionis como uma referência fundamental na disseminação de conhecimento científico de qualidade.

