Era talvez inevitável que isso acontecesse: a tecnologia dos modelos de linguagem de grande escala (LLMs, na sigla em inglês) poderia começar a ser usada contra alvos inocentes, após transitar por uma zona cinzenta entre o bem e o mal. Assim, mais uma vez, uma tecnologia útil e sólida acaba sendo reaproveitada para fins maliciosos.
Evitando restrições nos modelos de linguagem
A maioria dos modelos LLM possui "barreiras morais" para não realizar ações prejudiciais, o equivalente digital ao princípio da medicina: "primeiro, não causar dano". Se você perguntar, por exemplo, como construir uma arma, o modelo foi treinado com diretrizes de pré-processamento para evitar fornecer respostas detalhadas que possam permitir a realização de grandes danos.
No entanto, embora você não possa perguntar diretamente como construir uma arma, é possível aprender a formular perguntas melhores, utilizando uma combinação de ferramentas, e, ainda assim, chegar à resposta desejada.
Uma forma engenhosa de fazer isso é por meio de programação, utilizando consultas à API. Alguns projetos publicados recentemente têm como foco usar a API de back-end de um LLM com o objetivo de obter acesso root a servidores. Outro projeto, por sua vez, explora o back-end do ChatGPT para identificar de maneira mais inteligente alvos com potencial de serem atacados posteriormente.
A combinação de ferramentas baseadas em IA com outras projetadas para resolver diferentes desafios, como burlar IPs ofuscados (existem várias) para identificar o verdadeiro servidor de destino, pode ser extremamente eficaz, especialmente à medida que esses processos forem sendo automatizados.
No mundo digital, essas táticas podem ser usadas para criar ferramentas do tipo mashup que identificam vulnerabilidades e, em seguida, iteram sobre possíveis exploits, tudo isso sem que os modelos LLM utilizados percebam a finalidade maliciosa da ação.
É algo análogo ao chamado "projeto de sala limpa", em que se solicita a um LLM que resolva apenas uma parte menor e específica de uma tarefa mais ampla, definida por um atacante. Depois, um mashup reúne essas partes em uma constelação final que compõe a arma digital.
IA ofensiva e defensiva em expansão
Modelos de IA também podem vasculhar bilhões de linhas de código em repositórios de software existentes em busca de padrões inseguros e, a partir disso, desenvolver armas digitais que podem ser lançadas contra a cadeia global de dispositivos que executam software vulnerável. Isso cria constantemente um novo conjunto de alvos potenciais para comprometer, e representa um incentivo poderoso para aqueles interessados em realizar ataques de dia zero.
É fácil imaginar Estados-nação intensificando esse tipo de iniciativa: utilizando IA para prever falhas de software (atuais e futuras) e transformá-las em armamento digital. Isso coloca os defensores em posição de desvantagem, gerando uma espécie de corrida armamentista de IA voltada à ciberdefesa, com contornos quase distópicos. Para enfrentar essa realidade, os defensores precisarão desenvolver suas próprias soluções baseadas em IA, seja para fortalecer suas equipes de defesa (blue teams), seja simplesmente para evitar serem invadidos. Resta torcer para que estejam preparados.
Modelos que raciocinam e antecipam vulnerabilidades
Mesmo os modelos de IA disponíveis atualmente conseguem "raciocinar" sobre problemas com facilidade, refletindo de uma forma que imita o pensamento humano, ao menos nos nossos momentos mais lúcidos. É verdade que essa tecnologia não vai evoluir espontaneamente, a curto prazo, até se tornar um cúmplice consciente (em crimes digitais), mas, tendo absorvido enormes volumes de dados da internet, pode-se argumentar que ela "sabe" o que está fazendo, e que pode ser manipulada para revelar seus segredos.
Eficiência e escala dos ataques
A IA continuará fazendo cada vez mais com menos, possivelmente dispensando ajuda excessiva, permitindo que aqueles sem amarras morais desferirem golpes muito acima do seu peso e possibilitando que atores com recursos atuem em uma escala sem precedentes. Parece que alguns dos primeiros sinais do que está por vir já foram revelados em exercícios de red team e até mesmo observados "in the wild".
Uma coisa é certa: a velocidade dos ataques baseados em inteligência artificial vai aumentar. A partir do momento em que uma vulnerabilidade (CVE) explorável for divulgada, ou uma nova técnica for implementada, você precisará agir rapidamente; espero que esteja preparado.