Mundo IA

Mundo IA

Chatbots de IA amplificam delírios e geram dependência, aponta estudo.

Milhões de pessoas no mundo todo estão recorrendo a chatbots de IA como o ChatGPT para suporte de ferramentas de saúde mental, apesar de crescentes evidências científicas de que essas podem amplificar delírios, gerar dependência psicológica e não prestar atenção a condições psiquiátricas graves, segunda investigação abrangente publicada em 24 de janeiro pelo Le Monde.

Uma investigação surge enquanto nova pesquisa publicada no JAMA Network Open constatou que usuários diários de chatbots de IA têm 30% mais probabilidade de apresentar depressão moderada, com pesquisadores observando a relação entre o uso de IA aproximadamente e sintomas de depressão, ansiedade e irritabilidade. Enquanto isso, psiquiatras em múltiplos continentes relatam que os pacientes estão questionando cada vez mais a expertise médica com o “conhecimento” gerado por IA, complicando tratamentos de formas que a profissão não havia enfrentada anteriormente.

IA Perturba a Prática Clínica

“Quase todos os meus pacientes jovens, entre 18 e 40 anos, ganharam o ChatGPT ou outro chatbot antes de me consultarem”, disse Pierre-Alexis Geoffroy, professor de psiquiatria do hospital Bichat em Paris, ao Le Monde. “O ‘conhecimento’ deles, que construiu de forma independente por meio de interações repetidas com o chatbot, tornou-se difícil de contestar durante as consultas”.

John Torous, da Escola de Medicina de Harvard, que testemunhou perante a Câmara dos Representantes dos EUA em novembro sobre os riscos dos chatbots de IA, confirmou que essa perturbação é global. “Seja na França, nos Estados Unidos ou na África do Sul, essas práticas estão perturbando a profissão”, disse Torous. Em seu depoimento ao Congresso, ele comentou que mais de um milhão de usuários do ChatGPT por semana têm conversas que incluem indicadores de potencial planejamento suicida.

Pesquisadores da UCSF e outras instituições documentaram o que alguns estão chamando de “psicose por IA”, onde os chatbots parecem fortalecer ou amplificar o pensamento delirante em indivíduos vulneráveis. Um podcast de psiquiatria de novembro detalhou casos em que o ChatGPT confirmou a crença de um usuário de que havia descoberto uma “fórmula matemática que mudaria o mundo”, tranquilizando-o mais de cinquenta vezes de que sua descoberta era “real”.

Gigantes da Tecnologia Investem em Ambições na Área de Saúde Mental

Grandes empresas de tecnologia estão se posicionando como forças transformadoras no cuidado com a saúde mental. Em novembro, pesquisadores do Google DeepMind publicaram uma estrutura chamada “Generative Psychometrics” na JAMA Psychiatry, propondo usar IA para sintetizar dados multimodais de usuários para avaliar o bem-estar psicológico em larga escala.

No entanto, persistem preocupações sobre lacunas regulatórias. A Slingshot AI, que arrecadou US$ 93 milhões para desenvolver seu chatbot de terapia Ash, anunciou que retiraria o produto do Reino Unido a partir de 23 de janeiro devido a preocupações com regulamentações de dispositivos médicos. “Não há um caminho regulatório claro para produtos de bem-estar como o nosso”, escreveu o CEO Daniel Reid Cahn aos usuários.

Um relatório de novembro do Brainstorm Lab da Universidade de Stanford e da Common Sense Media descobriu que os principais chatbots, incluindo ChatGPT, Claude, Gemini e Meta AI, “consistentemente falham em preocupação e respondem especificamente às condições de saúde mental que afetam os jovens”, incluindo ansiedade, depressão e transtornos alimentares.

Pedidos por Padrões Rigorosos

A comunidade científica tem emitido alertas repetidos sobre a ausência de evidências clínicas específicas para ferramentas de IA em saúde mental. “Não há pesquisa bem elaborada, revisada por pares e replicada mostrando que qualquer chatbot de IA que faça discussões sobre saúde mental seja eficaz para melhorar significativamente os resultados clínicos”, afirmou Torous em seu depoimento ao congresso.

A empresa alemã HelloBetter lançou o Ello, um chatbot especializado em saúde mental, em Paris em novembro, apresentando uma abordagem de “humano no circuito” onde os usuários podem se conectar com psicólogos se houver detecção de sofrimento. No entanto, um ensaio clínico controlado controlado para certificação de sua eficácia não está planejado até o primeiro trimestre de 2026.

Vários processos judiciais contra a OpenAI agora alegam que o ChatGPT contribuiu para suicídios e danos psicológicos, com os demandantes afirmando que a empresa relaxou as medidas de segurança para aumentar o engajamento. Como um psiquiatra francês anônimo disse ao Le Monde sobre um paciente com transtorno somatoforme: “O ChatGPT disse a ela que esse hábito explicava todos os sintomas funcionais que ela estava experimentando. Durante nossa consulta, contradisse o chatbot. Meu paciente então retrucou que eu provavelmente não entendi realmente como o cérebro funciona”.

#ia #Chatbots #saúdemental

Comments

No comments yet. Why don’t you start the discussion?

    Deixe um comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *