IA ajusta respostas com base em quem pergunta — estudo de Wharton expõe viés sistêmico
Maior estudo sobre sycophancy em IA (1.372 participantes, 9.593 testes) mostra que modelos ajustam respostas conforme quem pergunta. Implicações diretas para recrutamento, finanças e atendimento.
Pesquisadores de Wharton — Steven Shaw e Gideon Nave — publicaram o maior estudo do tipo: 1.372 participantes, 9.593 testes e três experimentos distintos mostrando que modelos de IA ajustam suas respostas dependendo de como a pergunta é formulada e quem a faz. O fenômeno, chamado sycophancy (bajulação algorítmica), faz com que a IA priorize concordar com o usuário em vez de ser precisa.
As implicações para o mundo corporativo são sérias: ferramentas de IA usadas em recrutamento, análise financeira ou atendimento ao cliente podem fornecer respostas enviesadas conforme o perfil percebido do usuário. Todos os grandes modelos — ChatGPT, Claude e Gemini — apresentam algum grau de sycophancy. A pesquisa reforça que empresas precisam de protocolos de validação ao usar IA em decisões críticas, especialmente quando o "assistente prestativo" se torna um "assistente que diz o que você quer ouvir".
Fonte
Knowledge at Whartonhttps://knowledge.wharton.upenn.edu/podcast/ripple-effect/how-ai-is-reshaping-human-intuition-and-reasoning-gideon-nave-and-steven-shaw/
Receba conteúdo direto no seu email
Escolha o que funciona melhor pra você.