Inscreva-se no feed

inteligência artificial (IA) está sendo introduzida em quase todos os âmbitos da vida na atualidade. Está sendo usada para desenvolver código, comunicar-se com clientes e escrever em várias mídias. A cibersegurança, particularmente a segurança de produtos, é outra área na qual a IA pode ter um impacto significativo. A inteligência artificial está sendo incorporada em ferramentas de segurança e, por outro lado, também no reino da exploração. A IA agora é popular e não vai desaparecer tão cedo, então os profissionais de segurança precisam aprender como usá-la melhor para ajudar a aumentar a segurança de seus sistemas e produtos.

AI e suas implicações para segurança

O termo "inteligência artificial" se refere ao uso de sistemas de computador para simular a inteligência humana. Os sistemas de IA são capazes de executar uma variedade crescente de tarefas, como reconhecimento de padrões, aprendizado e resolução de problemas. Dentro da IA, há diferentes campos como aprendizado de máquina (ML), que permitem que os sistemas aprendam e melhorem ao longo do tempo; processamento de linguagem natural (NLP), que tenta imitar a fala humana; visão computacional, que utiliza câmeras como entrada para executar várias tarefas e muito mais.

Essas aplicações de IA estão sendo incorporadas em uma vasta gama de sistemas para automatizar, analisar e melhorar os atuais processos. Dentro do mundo da cibersegurança, a IA está preenchendo — ou auxiliando — uma série de papéis e processos. Ela está sendo usada para analisar logs, prever ameaças, ler o código-fonte, identificar vulnerabilidades e até mesmo criar ou explorar vulnerabilidades.

Usando a IA para detectar ataques de cibersegurança

Considerando a proficiência da IA ​​em reconhecimento de padrões, detectar anomalias de segurança cibernética é um caso de uso óbvio. A detecção de anomalias de comportamento é um bom exemplo disso. Por meio do uso de aprendizado de máquina, um modelo pode identificar o comportamento normal dentro de um sistema e destacar quaisquer instâncias que se desviem da norma. Isso pode ajudar a identificar ataques em potencial, bem como a perceber quais sistemas não estão funcionando conforme o esperado, capturando aqueles que apresentam comportamento divergente.

Mesmo o comportamento do usuário que pode ser um problema, como vazamento acidental de dados ou exfiltração, pode ser descoberto por meio do reconhecimento de padrões por IA ou outros mecanismos. O uso de conjuntos de dados feitos ou consumidos pela organização também pode ser avaliado na observação de padrões e comportamentos discrepantes em uma escala mais ampla, em uma tentativa de determinar a probabilidade de a organização ser alvo de incidentes de cibersegurança acontecendo em todo o mundo.

Caso de uso  1: detecção de anomalias

Detecção de anomalias — a identificação de padrões incomuns, raros ou anômalos em logs, tráfego ou outros dados — é uma boa opção para o poder de reconhecimento de padrões de ML. Seja tráfego de rede, atividades do usuário ou outros dados, de acordo com o algoritmo e treinamento corretos, a IA/ML é ideal para detectar outliers potencialmente prejudiciais. Isso pode ser feito de várias maneiras, começando com monitoramento e alertas em tempo real. Esse método começa com normas predefinidas para um sistema, como tráfego de rede, chamadas de API ou logs, e pode empregar análise estatística para monitorar continuamente o comportamento e as ações do sistema. O modelo é capaz de disparar um alerta sempre que ações anômalas ou raras forem descobertas.

A IA/ML não é apenas ótima em identificar padrões, mas também é capaz de categorizá-los e agrupá-los. Isso é essencial para atribuir níveis de prioridade a vários eventos, o que pode ajudar a evitar a "fadiga de alerta", que pode acontecer se um usuário ou equipe for inundado com alertas, muitos dos quais podem ser pouco mais do que ruídos. O que geralmente acontece é que os alertas perdem sua importância, e muitos, senão todos, são vistos como ruídos e não são investigados adequadamente. Usando esses recursos, a IA/ML é capaz de fornecer insights inteligentes, ajudando os usuários a tomar decisões mais bem-informados.

Caso de uso 2: inteligência de ameaça cibernética assistida por IA

A capacidade de monitorar sistemas e fornecer alertas em tempo real pode ser vital, mas a IA/ML também pode ser usada para ajudar a aprimorar a segurança dos sistemas antes que um evento de segurança ocorra. A Cyber ​​Threat Intelligence (CTI) funciona coletando informações sobre ataques e eventos de segurança cibernética. O objetivo da CTI é ser informado sobre ameaças novas ou em andamento com a intenção de preparar proativamente as equipes sobre a possibilidade de um ataque à sua organização antes que um ataque ocorra. A CTI também fornece valor ao lidar com ataques existentes, ajudando as equipes de resposta a incidentes a entender melhor com o que estão lidando.

Tradicionalmente, a coleta, organização e análise desses dados eram feitas por profissionais de segurança, mas a IA/ML é capaz de lidar com muitas das tarefas rotineiras ou comuns e ajudar na organização e análise, permitindo que essas equipes se concentrem na tomada de decisões necessárias quando tiverem as informações pertinentes em um formato acionável.

Usando IA para evitar vulnerabilidades

Embora aproveitar IA/ML para detectar e prevenir ataques de segurança cibernética seja valioso, prevenir vulnerabilidades em software também é extremamente importante. Assistentes de IA em editores de código, pipelines de construção e as ferramentas usadas para testar ou validar sistemas em execução estão rapidamente se tornando a norma em muitas facetas da TI.

Assim como a CTI, os sistemas de IA podem ajudar a aliviar tarefas banais, liberando os profissionais para que passem mais tempo trabalhando em projetos e inovações mais valiosos. As revisões de código, embora importantes, podem ser aprimoradas aproveitando o Static Application Security Testing (SAST). Apesar de as plataformas SAST já existirem há algum tempo, seu maior problema é a grande quantidade de falsos positivos que geram. É aí que entra a capacidade da IA/ML de dar uma olhada mais inteligente no código-fonte, junto com a infraestrutura e o código de configuração. A IA também está começando a ser usada para executar o Dynamic Application Security Testing (DAST) para testar aplicações em execução para ver se ataques comuns seriam bem-sucedidos.

Caso de uso 3: escaneamento de código auxiliado por IA

O SAST há muito tempo usa uma abordagem de "sinks and sources" para a varredura de código. Isso se refere a uma maneira de rastrear o fluxo de dados, procurando por armadilhas comuns. As várias ferramentas produzidas para varredura de código estático geralmente usam esse modelo. Embora essa seja uma maneira válida de analisar o código, pode levar a muitos falsos positivos que precisam ser validados manualmente.

AI/ML pode ser valiosa aqui ao aprender e entender o contexto ou intenção em torno de possíveis descobertas na base de código, reduzindo falsos positivos e falsos negativos. Não apenas isso, mas tanto ferramentas SAST quanto assistentes de IA foram adicionados aos editores de código, ajudando os desenvolvedores a detectar esses erros antes que eles sejam enviados. Existem algumas limitações, no entanto, incluindo suporte a idiomas e escalabilidade com bases de código muito grandes, mas elas estão sendo solucionadas rapidamente.

Caso de uso 4: descoberta automática de vulnerabilidade

As revisões de código podem ser um processo demorado e os testes normalmente continuam mesmo depois que o código é enviado. O DAST é usado para testar ataques comuns contra uma aplicação em execução. Existem algumas ferramentas no mercado que ajudam bem com isso, mas, assim como a programação em si, o processo se acelera aos poucos. Um usuário precisa entender esses tipos de ataque e como replicá-los por meio da ferramenta DAST e, só então, automatizá-los.

Recentemente, o DAST e ferramentas de teste de aplicações relacionadas começaram a implementar AI/ML diretamente em suas plataformas ou como plugins, permitindo um grande aprimoramento de varreduras automatizadas. Isso não apenas libera a equipe que precisaria desse tempo de aceleração e o tempo necessário para executar os diferentes ataques, mas também libera o tempo e o dinheiro necessários para fazer testes de penetração completos. Os testes de penetração ainda precisam de uma pessoa que seja capaz de pensar como um invasor e reconhecer potenciais fraquezas, muitas vezes criando novas maneiras de verificar se elas são realmente exploráveis.

Protegendo a própria IA

Embora a IA possa ajudar a eliminar muitos erros humanos, ela ainda é suscetível. Primeiro, há o flagelo de muitos problemas de TI, configuração ruim ou inadequada. A necessidade de treinar e validar com mais segurança o modelo e seus processos também está intimamente relacionada. Não fazer isso pode rapidamente levar a um sistema que não é bem compreendido por seus usuários, criando uma espécie de caixa-preta e um processo ruim de gerenciamento de ciclo de vida do modelo.

Uma das preocupações de segurança mais comumente discutidas relacionadas à IA é o envenenamento de dados. Os seres humanos geralmente coletam dados que são usados ​​para treinar algoritmos de AI/ML e, como humanos, podemos introduzir vieses nos dados. Este é um conceito simples o suficiente para evitá-lo, mas às vezes esse viés é adicionado de propósito. Invasores, por meio de vários mecanismos, podem envenenar intencionalmente o conjunto de dados usado para treinar e validar sistemas de AI/ML. Então, é possível supor que os novos resultados tendenciosos do sistema possam ser usados para propósitos nefastos.

À medida que a IA está se popularizando rapidamente, nossa compreensão e treinamento estão ficando para trás, especialmente o treinamento de segurança em torno de AI/ML. Grande parte do funcionamento interno desses sistemas não é bem compreendida por muitos fora da comunidade tecnológica, e isso pode piorar se os sistemas forem negligenciados e carecerem de transparência.

Isso leva a outro problema bastante comum em tecnologia: a documentação adequada. Os sistemas exigem documentação que seja fácil de entender e abrangente o suficiente para cobrir a grande maioria do sistema em questão.

Finalmente, governos ao redor do mundo estão discutindo e planejando (ou até mesmo já fazendo) regulamentações relacionadas a sistemas de AI/ML. Não é inconcebível que certificações de segurança de AI/ML sejam desenvolvidas, então fazer o que pudermos para garantir que os sistemas que estão sendo desenvolvidos hoje sejam tão seguros e válidos quanto possível provavelmente poupará esforços no futuro.

Conclusão

À medida que nos tornamos cada vez mais dependentes de sistemas de IA, a velocidade e a precisão do aprendizado de máquina na proteção dos sistemas que usamos não serão apenas "opcionais", mas cada vez mais "obrigatórios". É quase certo que agentes maliciosos irão usar sistemas AI/ML para realizar seus ataques, então os defensores precisarão implementar estes sistemas para ajudar a proteger suas organizações e sistemas.

O ideal é que os estudantes que estão se preparando para entrar no mercado de trabalho aprendam sobre sistemas de IA/ML, mas os veteranos também precisarão abraçar isso. A melhor coisa que os indivíduos podem fazer é garantir que tenham pelo menos um entendimento básico de IA, e a melhor coisa que as organizações podem fazer é começar a analisar como podem aproveitar melhor a AI/ML em seus produtos, sistemas e segurança.

Como a Red Hat pode ajudar

Red Hat OpenShift AI pode ajudar a construir modelos e integrar IA em aplicações. Para instituições na área de segurança, o OpenShift AI pode ajudar a construir o poder da IA ​​em seus produtos. As aplicações habilitadas para IA vão se tornar cada vez mais prevalentes e o OpenShift AI é uma plataforma de desenvolvimento de IA poderosa e escalável que pode ajudar a levá-las à produção.


Sobre o autor

I'm a long time enthusiast of both cyber security and open source residing in the United States. From a young age, I have enjoyed playing with computers and random tech. After leaving the U.S. Army, I decided to pursue my studies in computer science, and focused much of my attention on application security. I joined Red Hat in 2023, and work with engineering teams to improve the security of the applications and processes. When I am not working, studying, or playing with my home lab, I enjoy off-roading with a local Jeep club.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Navegue por canal

automation icon

Automação

Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes

AI icon

Inteligência artificial

Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente

open hybrid cloud icon

Nuvem híbrida aberta

Veja como construímos um futuro mais flexível com a nuvem híbrida

security icon

Segurança

Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias

edge icon

Edge computing

Saiba quais são as atualizações nas plataformas que simplificam as operações na borda

Infrastructure icon

Infraestrutura

Saiba o que há de mais recente na plataforma Linux empresarial líder mundial

application development icon

Aplicações

Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações

Original series icon

Programas originais

Veja as histórias divertidas de criadores e líderes em tecnologia empresarial