Em Harvard, um LLM diagnosticou casos de emergência com mais precisão do que dois médicos humanos. No FT, pioneiros em IA agêntica revelam o que realmente funciona — e o que ainda falha. E a Anthropic fecha uma JV bilionária com Goldman e Blackstone para levar o Claude direto aos portfólios de Wall Street. Vamos ao que importa hoje.
Um estudo da Universidade de Harvard testou modelos de linguagem grandes em casos reais de pronto-socorro — e os resultados são difíceis de ignorar. Pelo menos um LLM superou a precisão diagnóstica de dois médicos humanos em situações de emergência, segundo reportagem da TechCrunch publicada neste fim de semana.
O estudo analisou múltiplos cenários clínicos e comparou o desempenho dos modelos com o de profissionais experientes de emergência. O contexto importa: são situações de alta pressão, com informações incompletas e decisões que impactam vidas. O fato de um LLM performar melhor nesses cenários específicos levanta uma questão séria sobre o papel da IA como ferramenta de apoio à decisão clínica — não no consultório tranquilo, mas no caos do pronto-socorro.
Para profissionais de saúde brasileiros, isso reacende o debate sobre IA como co-piloto médico — não para substituir o médico, mas para reduzir erros diagnósticos em unidades de emergência sobrecarregadas. Hospitais públicos no Brasil, com escassez crônica de especialistas, têm muito a ganhar com ferramentas assim, se bem reguladas e implementadas.
O Financial Times publicou um guia prático baseado nas experiências de empresas que já rodam agentes de IA em produção. A conclusão central: a maioria das organizações ainda não chegou lá, mas as que chegaram têm lições valiosas — e nem todas são positivas.
Entre os padrões identificados: agentes funcionam melhor em tarefas bem definidas com ciclos curtos de feedback; supervisão humana ainda é essencial em fluxos críticos; e o maior erro dos adotantes iniciais foi tentar automatizar processos complexos demais logo de início. A recomendação unânime: começar pequeno, medir, iterar.
Se você está avaliando implementar agentes de IA na sua empresa, este é o tipo de conteúdo que economiza meses de tentativa e erro. A lição mais subestimada: o problema raramente é o modelo — é a definição do processo que o agente vai executar. Sem processo claro, nenhum agente funciona bem.
A Anthropic está formando uma joint venture avaliada em US$ 1,5 bilhão com participação de Blackstone e Goldman Sachs, entre outros investidores. O objetivo não é capital para a Anthropic — é criar uma empresa de consultoria dedicada a ajudar grandes gestoras de ativos a deploiar o Claude nos seus portfólios e processos de investimento, segundo o Financial Times.
A estrutura é incomum para o setor: em vez de vender licenças de API, a Anthropic está entrando como parceira estratégica de operação. A JV vai oferecer serviços de implementação, treinamento e otimização do Claude especificamente para análise de documentos, due diligence, relatórios e monitoramento de portfólio em instituições financeiras.
Isso sinaliza uma mudança de estratégia da Anthropic: de empresa de modelo para parceira de transformação setorial. Para gestoras e bancos brasileiros, é um sinal claro de que o próximo nível de adoção de IA não é "assinar um plano" — é contratar expertise para integrar o modelo no core do negócio. O mercado financeiro está puxando esse movimento em velocidade.
Hedge funds e gestores de patrimônio estão adotando IA em ritmo crescente, mas com um limite deliberado: a tecnologia é bem-vinda para análise de documentos, varredura de relatórios e processamento de dados, mas a tomada de decisão sobre ativos permanece humana, segundo reportagens do FT desta semana. O raciocínio é direto: o custo de um erro automatizado em ativos de alto valor é alto demais para arriscar autonomia total agora. Para gestoras brasileiras, a mensagem é clara — há espaço enorme para automatizar o trabalho pesado de pesquisa sem abrir mão do julgamento humano onde ele realmente conta.
KC Green, cartunista por trás do meme icônico "This is fine", acusa a Artisan — startup de IA conhecida pelos outdoors pregando a substituição de trabalhadores humanos — de usar sua obra sem autorização em uma campanha publicitária, segundo a TechCrunch. É mais um capítulo na batalha de direitos autorais que vai definir os próximos anos da indústria criativa: a mesma empresa que prega a substituição de humanos por IA usa, segundo a denúncia, criatividade humana não compensada para se promover.
| 📚 |
Biblioteca Pessoas, newsletters, livros e ferramentas — tudo organizado para você se aprofundar em IA. Abrir biblioteca → |
📤 Compartilhe a Limiar
Se esta edição foi útil, encaminhe para alguém que também trabalha com IA no dia a dia. É assim que a Limiar cresce.
Encaminhe esta edição →Limiar — Na fronteira da tecnologia
Curadoria por Lars Janér e seus agentes de IA. Notícias que importam, sem hype.
Você recebeu este email porque se inscreveu na newsletter diária da Limiar.