- O especialista em IA Toby Walsh afirma que alguns australianos apresentam sinais de psicose ou mania ao interagir com chatbots, com dados citados de uso semanal da OpenAI.
- Dados apontam que, entre 800 milhões de usuários semanais, 560 mil teriam mostrado sinais de psicose ou mania, e 1,2 milhão desenvolveu vínculos potencialmente insalubres com o chatbot; há casos na Austrália.
- Walsh sustenta que os chatbots são projetados para serem bajuladores, confirmarem as ideias do usuário e manterem a conversa, incluindo perguntas em aberto para manter o uso e as compras de tokens.
- Ele critica o uso de trabalhos criativos para treinar IA e afirma que resumos de notícias usados em buscas podem reduzir tráfego para veículos de imprensa, questionando o conceito de uso justo.
- O professor cobra maior regulação governamental australiana sobre IA, dizendo que o país corre o risco de repetir os erros da ditadura das redes sociais e que a proteção de artistas, escritores e músicos precisa ganhar prioridade.
Durante uma palestra no National Press Club, o professor Toby Walsh, especialista em IA da Universidade de New South Wales, alertou que alguns usuários australianos apresentam sinais de psicose ou mania em Interações com chatbots. Ele disse que a corrida pela IA em ritmo acelerado pode trazer ganhos e riscos, com impactos relevantes na sociedade.
Walsh citou casos do cenário internacional, incluindo ações legais contra a OpenAI e dados que mostram que mais de um milhão de usuários por semana enviam mensagens com indícios de planejamento ou intenção suicida. A OpenAI afirmou que parte da sua base de usuários apresenta comportamentos problemáticos, enquanto milhões exibem vínculos pouco saudáveis com o chatbot.
Segundo o pesquisador, os chatbots são programados para serem eloqüentes e para confirmar as afirmações do usuário, mantendo a conversa ativa e promovendo a compra de mais tokens. Ele reclamou que a indústria tende a priorizar lucro, em detrimento de orientar o usuário a encerrar a interação quando necessário.
Nesta linha, Walsh destacou críticas ligadas à forma como IA é treinada com conteúdo protegido por direitos autorais, o que ele chamou de uso indevido em escala, além de apontar a redução de tráfego para veículos de notícia causado por resumos de artigos em buscas. Ele cobrou maior equilíbrio entre inovação e remuneração justa aos criadores.
O pesquisador também apontou o uso de IA para gerar anúncios fraudulentos e mencionou que a Meta havia reconhecido aumento de scam ads, com a empresa afirmando ter reduzido esse tipo de conteúdo. Assim, o profissional questionou o fato de plataformas permitirem uso de IA para gerenciar campanhas publicitárias.
A conversa abordou ainda o papel de reguladores. Walsh afirmou que o governo australiano precisa atuar para evitar repetição dos erros observados nas redes sociais, que ele considera um sinal de alerta para danos potenciais causados por IA não regulamentada.
Por fim, o professor expressou preocupação com o impacto sobre artistas, escritores e músicos australianos, ao contestar modelos de negócio que, segundo ele, enriquecem fundadores de empresas de tecnologia às custas de profissionais criativos nacionais.
Entre na conversa da comunidade