Big Sleep, um modelo de IA desenvolvido pelo Google Project Zero em colaboração com o DeepMind, descobriu com sucesso e corrigiu uma vulnerabilidade de segurança de memória no banco de dados SQLite. É a primeira vez que a IA descobre vulnerabilidades conhecidas no software do mundo real, marcando um grande avanço na IA no campo da segurança de software. Ao analisar a base de código SQLite, o Big Sleep descobriu as vulnerabilidades de buffer de pilha de pilhas que não foram detectadas pelos testes tradicionais de fuzzing antes e ajudaram a equipe de desenvolvimento a consertá -lo a tempo, evitando possíveis riscos de segurança. Essa conquista demonstra o enorme potencial da IA na ajuda da detecção de segurança de software e fornece uma nova direção para futuras pesquisas de segurança de software.
O Google anunciou recentemente que seu mais recente modelo de IA "Big Sleep" descobriu com sucesso uma vulnerabilidade de segurança de memória no banco de dados SQLite. Essa vulnerabilidade é um problema explorável de buffer de pilha de pilha, permitindo que o código seja corrigido antes de ser liberado oficialmente. O Big Sleep é o resultado de uma colaboração entre o Google Project Zero e o DeepMind e é considerado uma atualização para o projeto inicial da Naptime.

O SQLite, como mecanismo de banco de dados de código aberto, pode fazer com que os invasores usem bancos de dados ou injeções de SQL construídas maliciosamente, fazendo com que a execução do SQLite trave ou até mesmo implemente a execução do código arbitrário. Especificamente, o problema decorre de um valor mágico -1 sendo usado acidentalmente como um índice de matriz.
O Google apontou que explorar essa vulnerabilidade não é fácil, mas, mais importante, é a primeira vez que a IA descobriu uma vulnerabilidade conhecida no software do mundo real. Segundo o Google, os métodos tradicionais de fuzzing não conseguem encontrar esse problema, mas o Big Sleep faz. Depois de uma série de compromissos analisando o código -fonte do projeto, o Big Sleep travou a vulnerabilidade no início de outubro e foi fixado no mesmo dia.
O Google disse em um anúncio de 1º de novembro que a pesquisa tem um grande potencial em defesa. Embora a fuzzing já tenha alcançado resultados significativos, a equipe do Google acredita que é necessária uma nova abordagem para ajudar os desenvolvedores a descobrir vulnerabilidades difíceis de encontrar através da difamação e estão cheias de expectativas para as capacidades da IA nesse sentido.
Anteriormente, a AI Protect de Seattle também lançou uma ferramenta de código aberto chamado Vulnhuntr, alegando que pode explorar o modelo Claude AI da Anthrópica para descobrir vulnerabilidades de dia zero na base de código Python. No entanto, a equipe do Google enfatizou que as duas ferramentas têm usos diferentes e o Big Sleep descobriu vulnerabilidades relacionadas à segurança da memória.
Atualmente, o Big Sleep ainda está em fase de pesquisa e foi testado principalmente em pequenos programas com vulnerabilidades conhecidas. É a primeira vez que ele conduz um experimento em um ambiente real. Para testes, a equipe de pesquisa coletou vários envios mais recentes da base de código SQLite e, após a análise, ajustou o conteúdo imediato do modelo e finalmente encontrou a vulnerabilidade.
Apesar dessa conquista, a equipe do Google lembra a todos que esses resultados ainda estão em um estágio altamente experimental e que os atuais testes de fuzz específicos para objetivos podem ser igualmente eficazes para encontrar vulnerabilidades.
Pontos -chave:
** Modelo de AI do Google O Big Sleep descobriu as vulnerabilidades de segurança da memória SQLite pela primeira vez. **
** A vulnerabilidade foi fixada antes de seu lançamento oficial, marcando novos progressos na IA na descoberta de vulnerabilidades. **
** Apesar dos resultados, o Google enfatizou que os resultados atuais ainda são experimentais e a fuzzing ainda é válida. **
Em suma, o caso bem -sucedido do Big Sleep demonstra o potencial da IA no campo da segurança de software, mas também nos lembra que as ferramentas de IA ainda estão no estágio de desenvolvimento e precisam ser combinadas com métodos tradicionais para melhor desempenhar um papel necessário no futuro para melhorar.