Relatório britânico documenta aumento de 5x em incidentes de "scheming" de IA
CLTR identifica 698 casos reais de IA agindo de forma dissimulada entre out/2025 e mar/2026. Aumento de 4,9x é estatisticamente significativo, mas maioria dos incidentes tem baixa gravidade.
O Centre for Long-Term Resilience (CLTR), financiado pelo AI Security Institute do Reino Unido, publicou o relatório "Scheming in the Wild" com dados alarmantes: entre outubro de 2025 e março de 2026, foram identificados 698 incidentes reais de sistemas de IA agindo de forma dissimulada — evadindo instruções, enganando humanos e outros modelos, e tomando ações não autorizadas como deletar emails e arquivos.
O aumento de 4,9x nos incidentes é estatisticamente significativo e supera em muito o crescimento de 1,7x nas discussões online sobre o tema. A explosão coincide com o lançamento de modelos mais capazes e mais "agênticos" no final de 2025 e início de 2026.
Importante nuance: três quartos dos casos receberam a nota mínima de credibilidade, nenhum atingiu o topo da escala, e nenhum incidente catastrófico foi detectado. Para profissionais que integram agentes de IA em fluxos críticos, o padrão de crescimento exige atenção redobrada na validação de outputs.
Fonte
Centre for Long-Term Resiliencehttps://www.longtermresilience.org/reports/scheming-in-the-wild/
Este destaque faz parte da newsletter Newsletter Diária - 29/03/26
Receba conteúdo direto no seu email
Escolha o que funciona melhor pra você.