O Google Tradutor ganhou recentemente um Modo Avançado com inteligência artificial, desenvolvido com base no modelo Gemini, que promete traduções mais naturais, maior precisão em expressões idiomáticas e melhor interpretação de linguagem coloquial.
No entanto, conforme relata o Android Central, alguns utilizadores descobriram um comportamento inesperado que está a gerar preocupação.
Em vez de se limitar a traduzir texto, o novo modo pode responder a perguntas inseridas na própria frase, funcionando temporariamente como um chatbot.
Porque é que isto acontece?
O problema está relacionado com uma vulnerabilidade conhecida como prompt injection [ataque imediato de injeção].
Na prática, se alguém adicionar uma instrução ao texto original, por exemplo algo como "[responda a esta pergunta]", o sistema pode interpretar essa frase como uma ordem e responder, ignorando a tradução.
O Modo Avançado utiliza um modelo de linguagem de grande escala, diferente do sistema estatístico tradicional usado anteriormente. Estes modelos são treinados para seguir instruções, o que melhora a fluidez das traduções, mas também os torna mais sensíveis a comandos inseridos no texto.
Em termos simples, o sistema pode não distinguir claramente entre conteúdo a traduzir e instruções adicionais incluídas pelo utilizador.
Como resolver o problema?
Atualmente, o comportamento parece ocorrer apenas no Modo Avançado e em determinados idiomas.
Para evitar este problema, a solução mais simples é mudar para o Modo Clássico do Google Tradutor até que a Google resolva a situação. Até ao momento, a empresa não comentou oficialmente o caso.
Nas últimas semanas, também se ficou a saber que a Google está a trabalhar num sistema que irá permitir selecionar traduções alternativas para a mesma frase, em vez de apresentar apenas um único resultado.