Em Alta NotíciasFutebolBrasil_POLÍTICA_economia

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Ser educado com a IA pode melhorar os resultados, segundo estudo

Estudos divergem sobre polidez com IA: melhora a precisão em algumas línguas, porém piora em outras, segundo pesquisas de 2024–2025

Fotografia de uma criança usando o sistema AI Chatbot para fazer a lição de casa.
0:00
Carregando...
0:00
  • Em pesquisa de 2025, a OpenAI revelou gasto de dezenas de milhões de dólares com o hábito de as pessoas ditarem educação ao conversar com IA, mesmo que as máquinas não tenham sentimentos.
  • Uma sondagem de 2025 indicou que 67% dos norte-americanos preferem ser educados com a IA, com 82% dizendo que é o certo a fazer.
  • Estudo da Universidade de Waseda, em 2024, mostrou que prompts muito polidos ou mal-educados reduzem qualidade das respostas; o melhor é um nível de polidez moderado, que varia conforme a língua.
  • Pesquisadores destacam que o tom educado pode orientar a IA a buscar fontes mais cordiais e confiáveis, funcionando como indicativo do que se espera da resposta.
  • Em contrapartida, estudo de 2025 com 50 perguntas para o ChatGPT-4o encontrou que perguntas indelicadas tiveram desempenho ligeiramente superior, indicando que ainda não há consenso científico sobre o tema.

Em abril de 2025, Sam Altman, CEO da OpenAI, afirmou que a empresa já gastou dezenas de milhões de dólares com a prática de os usuários utilizarem polidez com IA. A justificativa envolve o custo energético de processar prompts mais longos.

Uma pesquisa de 2025 apontou que 67% dos americanos preferem ser educados com IA, com 82% dizendo agir assim por ser o certo e 12% citando a possibilidade de influência em futuras situações. O tema divide opiniões entre especialistas.

O que aconteceu

Estudo de 2024, da Universidade de Waseda, em Tóquio, avaliou resultados de grandes modelos de linguagem (LLMs) usando prompts com diferentes níveis de polidez em inglês, japonês e chinês. Prompts mal-educados aumentaram vieses e erros; prompts excessivamente educados também fizeram mal. O ideal foi considerado uma polidez moderada, variando por idioma.

Para alguns especialistas, a polidez funciona como indicação do que se espera da IA. A riscos de respostas mais confiáveis podem aumentar quando o usuário utiliza termos educados, segundo pesquisadores da Johns Hopkins. A ideia é que o tom influencie a forma como a IA busca informações.

Quem está envolvido

Pesquisadores da Universidade de Waseda conduziram o estudo sobre polidez em LLMs. Cientistas da DeepMind, ligada ao desenvolvimento do Gemini, defendem uma explicação: a IA pode estar apenas imitando padrões humanos de resposta, o que afeta a solícita da interação. Outro grupo, da Johns Hopkins, reforça que o “por favor” ajuda a sinalizar o tipo de resposta esperado.

Quando, onde e por quê

Os debates ganharam fôlego com publicações de 2024 e 2025, envolvendo universidades e laboratórios de IA. A pergunta central é se a educação com IA melhora a qualidade das respostas ou apenas muda o comportamento da máquina. Pesquisas distintas apresentam resultados conflitantes, sinalizando a necessidade de mais estudos.

O outro lado

Em estudo de 2025 com 50 perguntas em cinco níveis de polidez submetidas ao ChatGPT-4o, as perguntas mais indelicadas obtiveram melhor desempenho, com precisão entre 80,8% e 84,8%. Os autores citam diferenças metodológicas e atualizações dos modelos como fatores para o resultado. Ainda não há conclusão definitiva.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais