Limiar
VIP

Limiar #48 — A IA que você finge usar pode ser a mesma que hackeia você

12 de maio de 2026·5 min de leitura

Hoje: funcionários da Amazon estão criando tarefas artificiais para inflar métricas de adoção de IA — um espelho do que acontece quando a adoção vira obrigação, não escolha. Enquanto isso, o Google interceptou o primeiro exploit zero-day que sabe ter sido criado com IA, e um economista do FT pergunta: e se a automação total nos tornar todos artesãos? Vamos ao que importa hoje.

🔥 Top 3 do Dia

Funcionários da Amazon inventam tarefas para inflar métricas de IA da empresa

A Amazon criou uma ferramenta interna chamada MeshClaw que permite a funcionários delegar tarefas a agentes de IA. Até aí, nada de novo — é o tipo de iniciativa que empresas de tecnologia estão lançando globalmente. O problema, reportado pelo Financial Times, é que a Amazon também criou um ranking de adoção: quem mais usa IA sobe na tabela. E os funcionários descobriram que o jeito mais fácil de subir no ranking é inventar tarefas desnecessárias e delegá-las à IA — mesmo que fosse mais rápido e eficiente fazer a tarefa manualmente.

É um caso clássico de goodharting: quando uma métrica vira meta, ela deixa de ser uma boa métrica. A pressão da liderança para mostrar adoção de IA criou um incentivo perverso — e agora a Amazon tem números de uso inflados que dizem muito pouco sobre eficiência ou valor real gerado. A ironia é que o comportamento dos funcionários é completamente racional dentro das regras do jogo que a própria empresa criou.

Por que importa: Se a sua empresa está medindo adoção de IA por volume de uso, prepare-se para ver os mesmos padrões. A adoção real de IA se mede por resultados — tempo economizado, qualidade melhorada, decisões mais rápidas — não por quantas vezes alguém clicou em "delegar para IA". Essa é a conversa que gestores brasileiros precisam ter com suas lideranças antes de lançar qualquer ranking ou leaderboard de IA.

Google intercepta o primeiro exploit zero-day criado com IA

O Google Threat Intelligence Group (GTIG) divulgou que detectou e bloqueou o que descreve como o primeiro exploit zero-day confirmado como desenvolvido com IA. Segundo o relatório, um grupo de cibercrime proeminente usou ferramentas de IA para construir a exploração, abaixando significativamente a barreira técnica para criar ataques sofisticados. A vulnerabilidade foi interceptada antes de causar danos, mas o precedente é inédito.

Por anos, exploits zero-day foram território de grupos com recursos técnicos avançados — APTs estatais, gangues bem organizadas. A IA está democratizando essa capacidade, mas não no sentido bom da palavra. Grupos que antes não tinham expertise para explorar vulnerabilidades complexas agora podem usar modelos de linguagem para analisar código, gerar provas de conceito e testar vetores de ataque em escala.

Por que importa: Para times de segurança e desenvolvedores, o ciclo de descoberta de vulnerabilidades está acelerando dos dois lados — ataque e defesa. Processos de patch management que levavam semanas precisam ser repensados. Empresas que ainda não investiram em gestão ativa de vulnerabilidades vão sentir essa pressão de forma crescente em 2026.

A IA vai nos transformar todos em artesãos — e isso pode ser bom

Uma análise do Financial Times traz um argumento contraintuitivo sobre automação e emprego: quando máquinas assumem tarefas rotineiras, elas não destroem necessariamente a demanda por trabalho humano — frequentemente a transformam. O café de máquina não matou a barista especializada. A impressão industrial não acabou com a encadernação artesanal. A automação historicamente aumenta o valor percebido do que é feito à mão.

A tese é que, à medida que a IA assume tarefas cognitivas de rotina, pode crescer a demanda por trabalho humano de alto toque — consultoria especializada, criação com perspectiva pessoal, serviços que dependem de confiança e relacionamento. Não é uma garantia, mas é um contraponto legítimo ao pânico de que a IA vai eliminar toda demanda por trabalho humano.

Por que importa: A pergunta relevante não é "a IA vai tomar meu emprego?" mas "o que fica mais valioso quando a IA faz o resto?". Profissionais que identificam onde seu toque humano gera mais valor — e posicionam seu trabalho nessa direção — estão melhor preparados do que quem tenta competir com a IA nas tarefas que ela já faz melhor.

📡 Radar

GM demite centenas de TI e recontrata por skills de IA

A General Motors demitiu centenas de funcionários de TI e está substituindo essas posições por perfis de IA: desenvolvimento nativo em IA, engenharia de dados, cloud e prompt engineering. Não é a primeira grande empresa a fazer isso em 2026, mas a escala chama atenção. Dominar ferramentas de IA deixou de ser diferencial e virou linha de corte em processos seletivos de tecnologia.

Thinking Machines: a empresa de Murati quer IA que ouve enquanto fala

A Thinking Machines, de Mira Murati (ex-CTO da OpenAI), anunciou que está desenvolvendo "modelos de interação" — IAs que processam sua entrada em tempo real enquanto ainda estão gerando resposta. Quebra o ciclo sequencial atual (você fala → ela processa → ela responde) para algo mais próximo de uma conversa humana bidirecional. Ainda é mais visão do que produto disponível, mas é uma das apostas técnicas mais interessantes do momento.

OpenAI Daybreak: agente de IA para caçar vulnerabilidades antes dos hackers

A OpenAI lançou o Daybreak, iniciativa de segurança que usa o agente Codex Security para detectar vulnerabilidades zero-day, criar provas de conceito de exploração e sugerir correções automaticamente — antes que atacantes cheguem lá. Com a notícia do Google hoje, o cenário de 2026 está tomando forma: IA na ofensiva, IA na defensiva, e equipes de segurança precisando orquestrar os dois lados.

L

Lars Janér

Lars Janér — Empreendedor, investidor e entusiasta de IA. Construindo na fronteira entre tecnologia e negócios.

Receba conteúdo direto no seu email

Escolha o que funciona melhor pra você.