Ameaça inteligente: 5 coisas que você não pode dizer ao ChatGPT. Ele pode te dedurar

Publicado por: Feed News
19/04/2025 07:52 PM
Exibições: 189
Ilustração Cortesia Editorial Ideia
Ilustração Cortesia Editorial Ideia

Privacidade, dados sensíveis e segurança digital: saiba como utilizar ferramentas de IA com responsabilidade e evite riscos ao interagir com o ChatGPT ou outros assistentes virtuais.

 

Crescimento acelerado, uso crescente e uma questão que permanece em aberto: como proteger suas informações ao utilizar inteligências artificiais como o ChatGPT?
Com mais de um bilhão de interações diárias, a IA da OpenAI já está integrada à rotina de milhões de pessoas em todo o mundo. Contudo, especialistas em segurança alertam: ainda faltam regulamentações sólidas, e o usuário precisa adotar práticas de proteção de dados pessoais para evitar consequências indesejadas.

Mesmo com políticas de uso transparente, a própria OpenAI admite que as informações fornecidas ao sistema podem ser armazenadas, analisadas e até utilizadas no treinamento de novos modelos. Com isso, cresce a importância de saber o que pode – e o que não deve – ser dito em um ambiente de inteligência artificial.

 

A seguir, cinco orientações essenciais para manter sua segurança digital ao utilizar IA:

1. Evite solicitar ou compartilhar informações ilegais ou antiéticas

Pedidos como instruções para burlar sistemas, praticar golpes ou manipular pessoas não são apenas rastreados e bloqueados, como também podem gerar alertas para autoridades. Em países como Reino Unido e membros da União Europeia, há proibição explícita sobre o uso da IA para criação de conteúdos manipuladores, como deepfakes com pessoas reais.

Dica de segurança: nunca utilize a IA para fins que você não usaria uma ferramenta pública de forma ética.

 

2. Nunca informe logins, senhas ou códigos pessoais

Mesmo que o sistema pareça seguro, ele não foi criado para gerenciar senhas ou dados de autenticação. Já ocorreram falhas técnicas no passado em que dados de usuários apareceram em respostas destinadas a terceiros.

Dica de segurança: use gerenciadores de senhas certificados e mantenha sistemas de autenticação de dois fatores ativados fora do ambiente da IA.

 

3. Dados bancários e financeiros devem permanecer privados

Informações como número de cartão de crédito, CVC, contas bancárias ou contratos financeiros não têm qualquer proteção garantida dentro do ambiente de chat. Diferente de bancos e fintechs, a IA não oferece criptografia de ponta a ponta nem políticas rigorosas de exclusão de dados.

Dica de segurança: considere a IA como uma ferramenta pública. Se não compartilharia em um fórum aberto, não compartilhe com o chatbot.

 

4. Não envie documentos empresariais ou materiais confidenciais

Casos como o da Samsung, em que colaboradores usaram IA para revisar informações internas e acabaram vazando dados corporativos, servem de alerta. Relatórios, estratégias, cadastros de clientes e contratos devem ser tratados com plataformas seguras e internas.

Dica de segurança: prefira ferramentas empresariais com termos de confidencialidade específicos e controle de acesso.

 

5. Evite compartilhar dados sobre sua saúde ou sintomas médicos

Apesar de muitos buscarem orientação inicial com a IA, é importante lembrar: o sistema não é um profissional de saúde. Além disso, ao compartilhar sintomas, diagnósticos ou exames, o conteúdo pode ser armazenado e, em situações específicas, reaparecer em outros contextos.

Dica de segurança: use a IA apenas como ponto de partida para pesquisa, e consulte sempre um profissional da área da saúde para diagnósticos e tratamentos.

 

Conclusão: IA exige consciência e responsabilidade

Inteligências artificiais como o ChatGPT são ferramentas poderosas, mas não são cofres digitais. A melhor regra de segurança é simples: nunca digite algo que você não publicaria em um site aberto da internet.

Enquanto a regulamentação da IA evolui, a responsabilidade sobre a proteção das informações ainda recai principalmente sobre os próprios usuários.

A pesquisa mais recente dos criadores da OpenAI também traz outro alerta: o uso frequente da IA como substituto de interações humanas pode elevar sensações de isolamento. Ao longo de um mês, foram analisadas quase mil pessoas, e os resultados indicaram aumento da solidão em usuários que substituíram interações reais por conversas com IA.

 

Convite para o próximo artigo:
No próximo conteúdo, vamos explorar: Como a IA pode ser usada com responsabilidade na área da saúde sem violar a privacidade dos pacientes. Fique atento!

Vídeos da notícia

Imagens da notícia

Tags: