- Em pesquisa de 2025, a OpenAI revelou gasto de dezenas de milhões de dólares com o hábito de as pessoas ditarem educação ao conversar com IA, mesmo que as máquinas não tenham sentimentos.
- Uma sondagem de 2025 indicou que 67% dos norte-americanos preferem ser educados com a IA, com 82% dizendo que é o certo a fazer.
- Estudo da Universidade de Waseda, em 2024, mostrou que prompts muito polidos ou mal-educados reduzem qualidade das respostas; o melhor é um nível de polidez moderado, que varia conforme a língua.
- Pesquisadores destacam que o tom educado pode orientar a IA a buscar fontes mais cordiais e confiáveis, funcionando como indicativo do que se espera da resposta.
- Em contrapartida, estudo de 2025 com 50 perguntas para o ChatGPT-4o encontrou que perguntas indelicadas tiveram desempenho ligeiramente superior, indicando que ainda não há consenso científico sobre o tema.
Em abril de 2025, Sam Altman, CEO da OpenAI, afirmou que a empresa já gastou dezenas de milhões de dólares com a prática de os usuários utilizarem polidez com IA. A justificativa envolve o custo energético de processar prompts mais longos.
Uma pesquisa de 2025 apontou que 67% dos americanos preferem ser educados com IA, com 82% dizendo agir assim por ser o certo e 12% citando a possibilidade de influência em futuras situações. O tema divide opiniões entre especialistas.
O que aconteceu
Estudo de 2024, da Universidade de Waseda, em Tóquio, avaliou resultados de grandes modelos de linguagem (LLMs) usando prompts com diferentes níveis de polidez em inglês, japonês e chinês. Prompts mal-educados aumentaram vieses e erros; prompts excessivamente educados também fizeram mal. O ideal foi considerado uma polidez moderada, variando por idioma.
Para alguns especialistas, a polidez funciona como indicação do que se espera da IA. A riscos de respostas mais confiáveis podem aumentar quando o usuário utiliza termos educados, segundo pesquisadores da Johns Hopkins. A ideia é que o tom influencie a forma como a IA busca informações.
Quem está envolvido
Pesquisadores da Universidade de Waseda conduziram o estudo sobre polidez em LLMs. Cientistas da DeepMind, ligada ao desenvolvimento do Gemini, defendem uma explicação: a IA pode estar apenas imitando padrões humanos de resposta, o que afeta a solícita da interação. Outro grupo, da Johns Hopkins, reforça que o “por favor” ajuda a sinalizar o tipo de resposta esperado.
Quando, onde e por quê
Os debates ganharam fôlego com publicações de 2024 e 2025, envolvendo universidades e laboratórios de IA. A pergunta central é se a educação com IA melhora a qualidade das respostas ou apenas muda o comportamento da máquina. Pesquisas distintas apresentam resultados conflitantes, sinalizando a necessidade de mais estudos.
O outro lado
Em estudo de 2025 com 50 perguntas em cinco níveis de polidez submetidas ao ChatGPT-4o, as perguntas mais indelicadas obtiveram melhor desempenho, com precisão entre 80,8% e 84,8%. Os autores citam diferenças metodológicas e atualizações dos modelos como fatores para o resultado. Ainda não há conclusão definitiva.
Entre na conversa da comunidade