Alerta de especialistas: nunca diga seu nome para uma IA ; entenda o motivo

  • Rosana Ribeiro
  • Publicado em 21 de fevereiro de 2024 às 21:00
compartilhar no whatsapp compartilhar no telegram compartilhar no facebook compartilhar no linkedin

Dados pessoais como nome, endereço e telefone não devem ser enviados para chatbots de inteligência artificial; entenda os riscos de compartilhar essas informações

Alguns dados não devem ser compartilhados em conversas com chatbots – foto Arquivo

 

Não é novidade que dados sensíveis e bancários nunca devem ser compartilhados em conversas com chatbots de inteligência artificial (IA), como o ChatGPT.

Isso porque não há garantia que as informações enviadas a essas ferramentas permanecerão privadas ou confidenciais para sempre.

No entanto, segundo o especialista Stan Kaminsky, da empresa de segurança Kaspersky, também não é recomendado compartilhar nenhuma informação pessoal com o software, nem mesmo o próprio nome, endereço ou telefone.

Por que não compartilhar dados pessoais com chatbots?

Em tese, as informações compartilhadas com o ChatGPT não são públicas, mas também não há garantias de que elas sejam confidenciais.

O chatbot da OpenAI, por exemplo, armazena conversas que podem ser utilizadas no futuro como uma forma de corrigir problemas técnicos ou violações de serviço.

Esses chats ainda podem ser revisados por humanos para treinar novas versões da ferramenta ou auxiliar na criação de novos tipos de softwares de inteligência artificial.

Além disso, existe a possibilidade que um bug ou um ataque ocasione um vazamento de informações do ChatGPT.

Recentemente, o site estadunidense Ars Technica acusou o chatbot de OpenAI de expor conversas privadas de usuários. A empresa de IA alegou que não houve um vazamento, mas sim um roubo de contas.

Por esses e outros motivos, não é recomendado compartilhar nenhum tipo de dado pessoal com o ChatGPT.

Embora informações como nome e telefone pareçam inofensivas em um primeiro momento, é possível que elas sejam utilizadas por usuários mal-intencionados para diferentes tipos de golpe.

Sabendo o seu nome completo e número, criminosos podem fingir ser atendentes de bancos e ligar para confiscar dados bancários, por exemplo.

Ainda segundo os especialistas, também é importante não anexar documentos em chatbots, mesmo que existam plug-ins que permitam usar essas ferramentas de IA para processá-los.

Isso porque, ao carregar um documento de várias páginas, por exemplo, o usuário corre o risco de expor informações confidenciais, incluindo dados empresariais, como o pagamento dos funcionários ou a data de lançamento de um produto.

Logo, ao usar um chatbot para fazer tarefas que incluam suas informações pessoais, troque algum dado específico ou substitua os termos por asteriscos.

*Informações TechTudo


+ Tecnologia