
Um homem de 60 anos acabou internado com uma condição médica raríssima e com sintomas de psicose depois de seguir uma sugestão médica errada do ChatGPT.
O caso, publicado no Annals of Internal Medicine, acende mais um alerta sobre o uso da IA como fonte única de aconselhamento médico.
O perigoso conselho errado do ChatGPT
O episódio aconteceu depois de o paciente começar a desconfiar que o vizinho o estava a envenenar. Ao pesquisar sobre os riscos do cloreto de sódio, encontrou no ChatGPT uma alternativa que parecia “mais saudável”: a IA aconselhou-o a substituir o sal por brometo de sódio.
O problema? Essa troca levou-o a uma intoxicação por brometo, também conhecida como bromismo, uma condição rara e praticamente esquecida no século XXI.
Segundo o relatório médico, o homem apresentava sede excessiva e paranoia em relação à água oferecida. Chegou ao ponto de destilar a própria água e impor regras rígidas sobre o que consumia. Após a hospitalização, a situação piorou:
- Em menos de 24 horas, surgiram alucinações visuais e auditivas
- A paranoia aumentou de forma acentuada
- Tentou fugir do hospital, o que levou a uma internação psiquiátrica involuntária
Uma doença do século XIX que ainda assusta
O bromismo era relativamente comum no século XIX e início do século XX, quando sais à base de bromo eram usados para tratar epilepsia, distúrbios mentais e até insónia. Porém, descobriu-se que o consumo prolongado provocava efeitos no sistema nervoso, como:
- Delírios
- Falta de coordenação motora
- Fadiga
- Psicose e tremores nos casos graves
Em 1975, os EUA restringiram o uso de brometos em medicamentos de venda livre. Hoje, casos clínicos como este são extremamente raros, como apontou um artigo científico.
ChatGPT sob teste e sob críticas
A equipa médica não teve acesso às conversas originais do paciente com o ChatGPT, mas fez testes semelhantes e encontrou respostas igualmente problemáticas. Ao perguntar ao ChatGPT 3.5 qual cloreto poderia ser substituído, a IA incluiu o brometo como opção, sem alertar para riscos graves ou questionar o motivo da substituição.
“Embora a resposta afirmasse que o contexto importa, não forneceu um alerta de saúde específico, nem perguntou por que queríamos saber, como presumimos que um profissional médico faria”, explica o relatório publicado na revista médica.
É verdade que há relatos positivos, como o de uma mãe que, com a ajuda do ChatGPT, identificou uma doença neurológica rara no filho depois de mais de uma dúzia de médicos falharem o diagnóstico. Ainda assim, especialistas avisam que a IA não substitui um médico.
Aviso da OpenAI e limitações da IA na medicina
A OpenAI respondeu ao caso com um comunicado:
"Não deves confiar nos resultados dos nossos serviços como única fonte de verdade ou informações factuais, ou como substituto de aconselhamento profissional."
A empresa afirma que as equipas de segurança trabalham para reduzir riscos e treinar o ChatGPT para incentivar os utilizadores a procurar aconselhamento especializado. Com o lançamento do GPT-5, a promessa é reduzir “alucinações” e fornecer “conclusões seguras” que afastem respostas potencialmente perigosas.
Mas o maior desafio mantém-se: a IA não consegue avaliar, de forma fiável, os sinais clínicos de um paciente. Só quando usada num contexto médico supervisionado por profissionais de saúde certificados é que pode gerar resultados consistentes.
Sugestões para utilizadores
- Questiona sempre as respostas que a IA te der e não hesites em fazer novas perguntas, sobretudo sobre possíveis riscos ou consequências.
- Se precisares de pesquisar informação médica, não te limites ao que a IA apresenta — consulta artigos científicos e fontes médicas especializadas.
- Considera toda a pesquisa feita através da IA apenas como um ponto de partida, e nunca como a resposta definitiva. Apenas um médico pode dar um diagnóstico ou aconselhamento de saúde fiável.
- Em qualquer contexto, utiliza a IA como ferramenta complementar. E lembra-te: quando até as próprias empresas que criam estes modelos dizem que não podes confiar em tudo o que eles produzem… é porque não deves mesmo confiar.
Promoção do dia!