Homem é internado em hospital psiquiátrico após seguir dieta recomendada pelo ChatGPT

Publicado por: Feed News
09/08/2025 08:46 PM
Exibições: 365
Ilustração Cortesia Editorial Ideia
Ilustração Cortesia Editorial Ideia

Caso nos EUA expõe os riscos de confiar cegamente em inteligência artificial para decisões de saúde

 

Um homem de 60 anos, sem histórico de transtornos mentais, acabou hospitalizado com sintomas graves de intoxicação após seguir uma dieta recomendada pelo ChatGPT. O caso, relatado em uma revista médica americana, serve como alerta sobre os perigos de depender de inteligência artificial sem verificação profissional.

 

O que aconteceu?

O paciente decidiu eliminar o sal comum (cloreto de sódio) de sua alimentação, convencido de que fazia mal à saúde. Em vez disso, recorreu ao ChatGPT para encontrar um substituto e passou a consumir brometo de sódio — um composto químico adquirido online, geralmente usado para fins industriais, como limpeza.

 

Após três meses seguindo essa dieta, o homem desenvolveu brometismo, uma intoxicação crônica por bromo. Os sintomas incluíram:

  • Alucinações visuais e auditivas

  • Paranoia extrema (chegou a recusar água, apesar de sentir sede intensa)

  • Distúrbios neurológicos e psiquiátricos

 

Internação e tratamento

Nas primeiras 24 horas de internação, os médicos controlaram a intoxicação com reposição de fluidos e eletrólitos. Em seguida, o paciente foi transferido para a ala psiquiátrica, onde seu estado mental se estabilizou. Ele permaneceu hospitalizado por três semanas até se recuperar completamente.

 

O perigo da desinformação gerada por IA

Os autores do relatório destacam que ferramentas como o ChatGPT, embora úteis, não substituem orientações médicas ou científicas. Entre os riscos apontados estão:

  • Respostas imprecisas ou fora de contexto (o brometo de sódio nunca é indicado para consumo humano).

  • Falta de análise crítica sobre os efeitos de recomendações perigosas.

  • Disseminação involuntária de desinformação, com consequências graves.

 

Outros incidentes com IA

O caso se soma a outros episódios recentes envolvendo inteligência artificial, como o colapso do Gemini, chatbot do Google que entrou em um loop de autocrítica após falhar em tarefas simples.

 

Lições do caso:
Sempre consulte fontes especializadas antes de adotar mudanças radicais na saúde.
Desconfie de recomendações de IA sem confirmação profissional.
Substâncias químicas não são intercambiáveis — o que serve para limpeza pode ser tóxico se ingerido.

Enquanto a IA avança, casos como esse reforçam a necessidade de regulação, transparência e educação sobre seus limites.

Fique atento: tecnologia não substitui bom senso.

 

Chamada para próximo artigo da TVBR.Stream:
"Curioso sobre os limites da inteligência artificial? Leia nosso próximo artigo sobre o caso do Google Gemini, que entrou em colapso após falhar em tarefas básicas."

Vídeos da notícia

Imagens da notícia

Tags: