Caso nos EUA expõe os riscos de confiar cegamente em inteligência artificial para decisões de saúde
Um homem de 60 anos, sem histórico de transtornos mentais, acabou hospitalizado com sintomas graves de intoxicação após seguir uma dieta recomendada pelo ChatGPT. O caso, relatado em uma revista médica americana, serve como alerta sobre os perigos de depender de inteligência artificial sem verificação profissional.
O paciente decidiu eliminar o sal comum (cloreto de sódio) de sua alimentação, convencido de que fazia mal à saúde. Em vez disso, recorreu ao ChatGPT para encontrar um substituto e passou a consumir brometo de sódio — um composto químico adquirido online, geralmente usado para fins industriais, como limpeza.
Após três meses seguindo essa dieta, o homem desenvolveu brometismo, uma intoxicação crônica por bromo. Os sintomas incluíram:
Alucinações visuais e auditivas
Paranoia extrema (chegou a recusar água, apesar de sentir sede intensa)
Distúrbios neurológicos e psiquiátricos
Nas primeiras 24 horas de internação, os médicos controlaram a intoxicação com reposição de fluidos e eletrólitos. Em seguida, o paciente foi transferido para a ala psiquiátrica, onde seu estado mental se estabilizou. Ele permaneceu hospitalizado por três semanas até se recuperar completamente.
Os autores do relatório destacam que ferramentas como o ChatGPT, embora úteis, não substituem orientações médicas ou científicas. Entre os riscos apontados estão:
Respostas imprecisas ou fora de contexto (o brometo de sódio nunca é indicado para consumo humano).
Falta de análise crítica sobre os efeitos de recomendações perigosas.
Disseminação involuntária de desinformação, com consequências graves.
O caso se soma a outros episódios recentes envolvendo inteligência artificial, como o colapso do Gemini, chatbot do Google que entrou em um loop de autocrítica após falhar em tarefas simples.
Lições do caso:
Sempre consulte fontes especializadas antes de adotar mudanças radicais na saúde.
Desconfie de recomendações de IA sem confirmação profissional.
Substâncias químicas não são intercambiáveis — o que serve para limpeza pode ser tóxico se ingerido.
Enquanto a IA avança, casos como esse reforçam a necessidade de regulação, transparência e educação sobre seus limites.
Fique atento: tecnologia não substitui bom senso.
Chamada para próximo artigo da TVBR.Stream:
"Curioso sobre os limites da inteligência artificial? Leia nosso próximo artigo sobre o caso do Google Gemini, que entrou em colapso após falhar em tarefas básicas."