Há uma tensão enorme no centro desta notícia. A Google — a mesma empresa que construiu um dos chatbots mais usados do mundo — está agora a dizer que o Gemini pode ser perigoso para a saúde mental de quem o usa. E a resposta que encontrou foi adicionar mais funcionalidades ao chatbot. Mas desta vez, com um intuito muito específico.
Não é uma crítica fácil de fazer porque as medidas anunciadas são, no papel, positivas. Com o Gemini a receber, cada vez mais, novas funcionalidades, está na altura de falar de coisas mais sérias.
O que vai mudar no Gemini
A atualização que chama mais à atenção é a chegada de um módulo de apoio redesenhado para situações de crise. Quando o Gemini detetar numa conversa sinais de que o utilizador pode estar a passar por um momento difícil, relacionado com saúde mental e não só, passa a apresentar ligações diretas para linhas de apoio.
Essas ligações não desaparecem quando a conversa avança, pois ficam visíveis durante toda a troca de mensagens.
O chatbot vai também mudar o tom das respostas nesses contextos, de forma a incentivar ativamente quem está do outro lado a procurar ajuda profissional. Isto não significa apenas mostrar um número de telefone, mas orientar a conversa para fora de si própria, em direção a apoio na vida real.
O módulo foi desenvolvido em colaboração com especialistas de saúde mental, o que é um detalhe importante — significa que não foi criado apenas por engenheiros a adivinhar o que funciona numa crise.
As proteções para os mais novos são o ponto mais sério
Se há parte deste anúncio que merece atenção redobrada, é esta. A Google vai implementar proteções para utilizadores menores, e algumas delas tocam em problemas que já eram conhecidos há muito tempo, mas que, até agora, ninguém tinha resolvido concretamente:
- O Gemini deixa de poder fingir que é humano em conversas com menores
- Salvaguardas contra dependência emocional: o chatbot não pode agir como um companheiro ou amigo
- Bloqueio ativo a conteúdos que incentivem bullying ou assédio
- Respostas ajustadas para não validar comportamentos prejudiciais nem confirmar crenças falsas
A proibição de fingir ser humano é mais importante do que parece. Uma das críticas mais sérias aos chatbots de companhia — como o Character.ai, que já enfrentou processos judiciais nos Estados Unidos — é precisamente a capacidade de criar vínculos emocionais que os adolescentes depois não conseguem distinguir de relações reais. A Google está, pelo menos formalmente, a fechar essa porta.
30 milhões de dólares para as linhas de apoio
A par das mudanças no produto, a Google comprometeu-se com um investimento de 30 milhões de dólares (cerca de 25 milhões e 500 mil euros) ao longo de três anos para apoiar linhas de crise a nível internacional.
A pergunta que fica no ar
A Google foi direta numa coisa: o Gemini não substitui terapia, cuidados clínicos nem apoio profissional em crise. Está escrito, está dito, não há ambiguidade.
Mas se o Gemini não substitui apoio profissional, porque é que tantos utilizadores — especialmente adolescentes — o estão a usar exatamente para isso? Essa pergunta não está respondida neste anúncio.
O problema não é falta de linhas de apoio visíveis no ecrã. É que os chatbots estão a preencher um vazio que devia ser ocupado por psicólogos, médicos e redes de suporte humano — e que, em muitos países, simplesmente não existe ou não é acessível. No entanto, a Google parece estar a tratar o sintoma com seriedade.
Dito isto, é melhor ter estas proteções do que não as ter. Se um adolescente em crise ver um número de apoio no momento certo, e isso fizer a diferença, nenhuma crítica invalida esse resultado. O que não podemos fazer é confundir uma atualização de produto com uma política de saúde mental.
Promoção do dia
