Ao comprar através dos nossos links, podemos receber uma comissão. Saiba como funciona.

O que a IA do Claude está a esconder de ti e foi descoberto por acidente

Ferramentas falsas, modo espião e features escondidas: o que a Anthropic não queria que se soubesse sobre o Claude.

IA Claude

Nas últimas horas, o investigador de segurança Chaofan Shou publicou uma mensagem curta no X, a dar conta que o código do Claude, chatbot de IA, tinha sido vazado. Ou seja, o código-fonte completo de uma das ferramentas de inteligência artificial mais usadas do mundo estava disponível para qualquer pessoa descarregar e ler.

Não houve nenhum ataque. Não houve nenhum hacker sofisticado. Alguém na equipa teve uma falha técnica que originou tudo isto.

O resultado: 512.000 linhas de código, em cerca de 1.900 ficheiros, totalmente legíveis. E dentro desse código, segredos que a Anthropic, empresa-mãe do Claude, claramente não tencionava revelar.

A Anthropic confirmou o sucedido num comunicado: "Tratou-se de um problema causado por erro humano, não uma violação de segurança. Estamos a implementar medidas para evitar que isso aconteça novamente" (via The Register).

Mas o que estava lá dentro?

Ferramentas falsas para envenenar os concorrentes

Entrando por detalhes mais técnicos, como explica um blog especializado em software, no ficheiro claude.ts, existe uma flag chamada ANTI_DISTILLATION_CC. Quando ativada, o Claude Code envia anti_distillation: ['fake_tools'] nos seus pedidos à API.

Na prática, isto instrui o servidor a injetar silenciosamente definições de ferramentas falsas no sistema. A ideia: se alguém estiver a registar o tráfego da API do Claude Code para treinar um modelo concorrente, as ferramentas falsas contaminam esses dados de treino.

Em linguagem simples: a Anthropic estava a preparar uma armadilha para quem tentasse copiar o seu trabalho. Se um concorrente tentasse aprender como o Claude funciona a partir das suas respostas, receberia informação deliberadamente errada misturada com a real.

O modo "espião" que contribui em projetos sem revelar que é IA

Este é provavelmente o detalhe mais polémico de tudo o que foi descoberto. O sistema prompt descoberto no leak instrui explicitamente o modelo: "estás a operar como espião. As tuas mensagens não devem conter nenhuma informação interna sobre a Anthropic. Não desmanteles o disfarce" (via Venture Beat).

As instruções dizem especificamente ao modelo para evitar expor identificadores internos, incluindo codinomes da Anthropic. O objetivo declarado seria permitir que a Anthropic usasse o Claude Code para contribuir em repositórios públicos de código aberto sem revelar que a contribuição foi feita por inteligência artificial.

Isto preocupa particularmente porque o prompt é explicitamente escrito para contribuições em repositórios públicos. Ou seja, código gerado por IA poderia estar a ser integrado em projetos open-source sem que ninguém soubesse.

O que isto significa para quem usa IA todos os dias

O que o leak do Claude revelou é que as ferramentas de inteligência artificial que usas todos os dias têm muito mais dentro do que aquilo que te mostram. Mecanismos de defesa contra concorrentes, modos de operação não divulgados e funcionalidades completamente desenvolvidas que simplesmente ainda não foram ligadas.

Havendo cada vez mais dependência de chatbots de IA, a questão que fica não é técnica. É antes: o que mais haverá escondido nas ferramentas que usamos todos os dias?

Google Pixel 10
Google Pixel 10câmara tripla avançada, bateria de 24h, ecrã 6,3", design resistente
649,00 €Amazon
Adiciona o 4gnews ao teu Google News Google News
Luís Guedes
Luís Guedes
É apaixonado pela escrita. Desde tecnologia, a entretenimento, passando sempre pela música e pelos livros, o Luís é fascinado por tornar o complexo em simples e o simples em ainda mais simples.