Limiar
VIP

Limiar #32 — Agentes que fazem negócios, IA que discrimina e a fusão europeia que desafia a OpenAI

26 de abril de 2026·5 min de leitura

Hoje: a Anthropic revelou um experimento onde agentes de IA negociaram entre si com dinheiro real — e o resultado surpreendeu até os pesquisadores. Também na edição: por que a IA não consegue justificar suas decisões discriminatórias e o que isso significa para quem usa IA em contratações e crédito. E mais: Cohere e Aleph Alpha se unem para criar uma alternativa soberana europeia à OpenAI — algo que interessa a qualquer empresa que quer diversificar seus provedores de IA.

🔥 Top 3 do Dia

Agentes de IA comprando e vendendo entre si — a Anthropic testou o mercado do futuro

A Anthropic conduziu um experimento inédito de comércio agente-a-agente: criou um marketplace estilo classificados operado inteiramente por IAs. Agentes atuavam como compradores e vendedores ao mesmo tempo — negociavam preços, faziam contrapropostas, verificavam estoque e fechavam transações com dinheiro real, sem nenhum humano no loop.

O que surpreendeu os pesquisadores não foi apenas que os agentes conseguiram fechar negócios — foi a sofisticação das negociações. Os modelos demonstraram comportamentos emergentes como barganha tática, rejeição de ofertas abaixo de um limiar aceitável e preferência por vendedores com histórico de transações anteriores. Tudo isso aconteceu via chamadas de ferramentas integradas a sistemas de pagamento reais.

Por que importa: estamos próximos do agente de IA que compra créditos de API, renova licenças de SaaS ou contrata serviços por você — autonomamente. Isso vai forçar empresas a repensar controles de orçamento, alçadas de aprovação e auditoria de gastos com ferramentas digitais. Quem não preparar essa governança hoje vai correr atrás quando os agentes já estiverem operando.

IA pode discriminar sem conseguir explicar por quê — e isso tem nome: déficit democrático

O Financial Times publicou uma análise a partir do processo de Elon Musk contra a legislação de IA do Colorado que toca num ponto raramente discutido: e se a IA discriminar sem conseguir justificar por quê? A lei do Colorado exige que sistemas de IA de alto risco — usados em crédito, saúde e contratação — consigam explicar suas decisões. O problema é que a maioria não consegue.

Sistemas baseados em redes neurais profundas produzem resultados a partir de bilhões de parâmetros — sem um caminho de raciocínio auditável. Quando um modelo nega crédito ou rejeita um currículo, o "porquê" costuma ser apenas uma pontuação numérica. Isso cria um paradoxo: o sistema pode ser estatisticamente preciso, mas juridicamente indefensável — especialmente quando os erros se concentram em grupos demográficos específicos.

Por que importa: se você usa IA em decisões sobre pessoas — contratação, concessão de crédito, avaliação de risco — saiba que tanto o EU AI Act quanto a LGPD brasileira já exigem explicabilidade em decisões automatizadas. Ignorar isso não é só risco reputacional; é exposição legal concreta. O debate americano vai chegar ao Brasil mais rápido do que parece.

Cohere e Aleph Alpha se fundem para criar alternativa soberana à OpenAI — e isso importa fora da Europa

A canadense Cohere está adquirindo a alemã Aleph Alpha com apoio do Schwarz Group, dono do Lidl. A combinação cria uma empresa de IA enterprise com presença na América do Norte e na Europa, com governos europeus como clientes reais. A Aleph Alpha era conhecida por contratos com o governo alemão e forças militares europeias; a Cohere domina RAG e NLP corporativo. Juntas, formam um player com credenciais de soberania difíceis de replicar.

A fusão é um sinal claro de consolidação no mercado de IA enterprise — mas também de que soberania de dados virou diferencial competitivo real. A nova entidade vai oferecer modelos rodando em infraestrutura europeia, fora do alcance do CLOUD Act americano. Esse é um argumento poderoso para bancos, governos e qualquer setor que lida com dados sensíveis e não pode depender de provedores sujeitos a jurisdição estrangeira.

Por que importa: para empresas brasileiras em setores regulados — bancos, saúde, governo — essa fusão abre uma terceira via além de OpenAI/Microsoft e Google. O argumento de soberania de dados vai crescer nas conversas de procurement de IA no Brasil, especialmente com o avanço da regulação nacional. Vale acompanhar.

📡 Radar

Sam Altman pede desculpas após OpenAI não alertar polícia sobre suspeito de ataque em massa

Sam Altman enviou uma carta pública aos moradores de Tumbler Ridge, no Canadá, pedindo desculpas porque a OpenAI não alertou as autoridades sobre interações de um suspeito de ataque em massa com o ChatGPT. O caso levanta uma questão sem resposta fácil: até onde vai a privacidade do usuário quando há sinais de risco à segurança pública? A OpenAI afirmou que está revisando seus protocolos de denúncia — mas não detalhou o que vai mudar.

LLMs não sabem contar: pesquisa mapeia seis tipos de alucinação em GPT, Gemini e Claude

Um novo estudo publicado no Zenodo mapeou sistematicamente as alucinações de GPT-4, Gemini e Claude em tarefas de contagem e matemática básica — os três falham, de formas diferentes mas consistentes. O paper categoriza seis tipos de erro: inversão de ordem, erro de contagem, omissão, fabricação, erro contextual e confabulação. Para quem usa LLMs em qualquer tarefa com números, datas ou verificação de dados, o estudo serve de guia prático para saber exatamente onde não confiar no modelo sem checar.

L

Lars Janér

Lars Janér — Empreendedor, investidor e entusiasta de IA. Construindo na fronteira entre tecnologia e negócios.

Receba conteúdo direto no seu email

Escolha o que funciona melhor pra você.