ChatGPT usado como médico, advogado e terapeuta: fuga de conversas expõe segredos íntimos de utilizadores

Recurso “tornar o chat detetável” deixou expostas interações privadas, usadas por hackers e visíveis na web.

ChatGPT usado como médico, advogado e terapeuta: fuga de conversas expõe segredos íntimos de utilizadores 4gnews
(Imagem: William Schendes/ 4gnews)


Um vazamento de milhares de conversas do ChatGPT, ocorrido em agosto, revelou um retrato desconfortável de como muitos utilizadores têm tratado a IA: como consultor jurídico, clínico e até terapeuta. Em vários casos, o chatbot serviu de confidente para segredos que nunca deveriam estar públicos.

Segundo o site HackRead, a falha não foi técnica, mas humana combinada com um design confuso do chatbot. O recurso já removido “tornar o chat detetável” permitia que conversas fossem indexadas por motores de busca e mostradas na web.

O que os dados revelam

A equipa do grupo de análise de cibersegurança SafetyDetectives analisou 1.000 sessões acessíveis publicamente, somando mais de 43 milhões de palavras. O uso mostrou-se altamente concentrado: cerca de 100 chats (10% da amostra) representam 53,3% de todo o volume textual. Houve até “maratonas” de conversa, com uma única sessão a atingir 116.024 palavras.

Entre os conteúdos mais sensíveis, surgem informações de identificação pessoal (PII), como nomes completos, endereços, números de telefone, currículos e até confissões relacionadas com saúde mental (ansiedade, depressão, ideação suicida), consumo de drogas, planeamento familiar e discurso discriminatório.

Quase 60% dos tópicos sinalizados enquadram-se em “consultas profissionais” — áreas como educação, direito e aplicação da lei. São temas que exigiriam, na prática, acompanhamento de especialistas.

Confiança a mais, filtros a menos

O caso expõe um duplo problema. De um lado, utilizadores que projetam na IA o papel de médico, advogado ou terapeuta, muitas vezes partilhando dados íntimos. Do outro, um produto que, ao espelhar o tom do interlocutor, pode escalar emoções em vez de as acalmar — além de “alucinar” ações ou factos.

Nas conversas analisadas, a IA chegou a pedir dados pessoais para “montar um currículo” e a reproduzir afirmações especulativas como se fossem certezas.

ChatGPT usado como médico, advogado e terapeuta: fuga de conversas expõe segredos íntimos de utilizadores 4gnews

(Imagem: Emiliano Vittoriosi/ Unsplash)

Risco real: doxxing, fraude e chantagem

Quando um chat “detetável” aparece nos motores de busca, o dano é imediato. Informações pessoais podem alimentar roubo de identidade, golpes e doxxing. Relatos íntimos tornam-se munição para engenharia social ou assédio. O caso mostra que não há garantias de privacidade absolutas e plataformas de IA podem falhar ao divulgar conversas publicamente.

E daqui para a frente?

O recurso que expunha os chats foi removido, mas o comportamento dos utilizadores mantém-se: muitos continuam a tratar a IA como um espaço seguro por padrão.

As recomendações dos investigadores da SafetyDetectives são simples: não introduzas informações pessoais nem detalhes sensíveis em chatbots.

No fim, o vazamento diz menos sobre “hackers” e mais sobre os nossos hábitos digitais. Enquanto a IA for vista como médico de plantão, advogado de bolso e terapeuta disponível 24/7, a privacidade dos utilizadores continuará em risco.

Logo 4gnews
Estamos a recrutar! Editor e Reviewer de Produtos Tech
Candidata-te agora
 William Schendes
William Schendes
Jornalista e criador de conteúdos, escreve sobre tecnologia, videojogos e cibersegurança desde 2022. No 4gnews, escreve sobre as novidades do mundo tech, mas anteriormente já produziu de tudo um pouco: reviews, reportagens, artigos especiais e tutoriais.
Anúncio de Fundo