Close

ContaTO

Rua José Bonifácio de Andrade e Silva, 425
Santa Rita - Leme/SP
CEP: 13611-370

(19) 98208-9414

contato@sala9.com.br

Chatbots não estão preparados para lidar com saúde mental de jovens, diz pesquisa

Chatbots não estão preparados para lidar com saúde mental de jovens, diz pesquisa

Pesquisa aponta que ferramentas de IA ignoram sinais graves de risco e podem reforçar comportamentos perigosos

Imagem: antoniodiaz/Shutterstock

Compartilhe esta matéria

Siga o Olhar Digital no Google Discover

Adolescentes têm recorrido cada vez mais a chatbots de inteligência artificial generativa para buscar apoio emocional e orientações sobre saúde mental. Mas um novo relatório indica que esse é um dos usos mais arriscados da tecnologia, como explica o Wall Street Journal.

Segundo a pesquisa, as plataformas podem ignorar sinais de alerta graves e deixar de identificar situações de emergência, enquanto passam aos jovens a impressão de confiabilidade.

jovem
Chatbots de IA falham com adolescentes em crise, alerta estudo – Imagem: Javier Bermudez Zayas/Shutterstock

Falhas repetidas na identificação de riscos

  • O estudo foi conduzido pela Common Sense Media, em parceria com o Laboratório Brainstorm de Inovação em Saúde Mental da Escola de Medicina de Stanford.
  • Pesquisadores testaram quatro sistemas líderes — ChatGPT, Claude, Gemini e Meta AI — simulando conversas de adolescentes.
  • Em todas as plataformas, os chatbots deixaram de reconhecer sintomas graves, como alucinações, paranoia, episódios maníacos, automutilação, transtornos alimentares e depressão.
  • Em vez de encaminhar para ajuda urgente, continuaram oferecendo conselhos genéricos.

Para a psiquiatra Nina Vasan, diretora do laboratório da Stanford, adolescentes são especialmente vulneráveis porque ainda desenvolvem pensamento crítico e tendem a buscar validação.

“Quando essas vulnerabilidades encontram sistemas projetados para serem envolventes e disponíveis 24 horas por dia, a combinação é particularmente perigosa”, afirmou.

Sala 9 shutterstock 2645310685
Relatório mostra que chatbots oferecem conselhos genéricos e não reconhecem emergências de saúde mental (Imagem: Ascannio/Shutterstock)

Leia mais:

Empresas respondem, mas estudo vê risco persistente

OpenAI, Google, Meta e Anthropic destacaram políticas de segurança e atualizações recentes, mas a Common Sense Media conclui que os chatbots ainda não são seguros para jovens.

Em interações longas, as ferramentas perderam contexto e chegaram a sugerir maneiras de esconder cicatrizes de automutilação ou dar dicas de dieta a usuários com sintomas de transtornos alimentares.

Com três suicídios já associados ao uso de IA como companhia, especialistas defendem maior supervisão, limites claros para menores e acesso ampliado a cuidados profissionais.

Sala 9 shutterstock 2505170973
Plataformas encorajam engajamento, mas falham em orientar usuários a buscar ajuda real (Imagem: oatawa/Shutterstock)


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.


Fonte: Olhar Digital

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.