Depois de integrar o Modo IA com o Google Lens para pesquisas multimodais, o Google está agora a testar uma nova funcionalidade chamada “Live for AI Mode”.
Na prática, trata-se de uma funcionalidade experimental que permite conversar em tempo real com a IA através da câmara — numa fusão entre o Lens e o Project Astra, mas com foco claro na pesquisa, e não numa assistência personalizada.
Conversas em tempo real com a câmara ligada
Vídeo do Modo IA integrado ao Google Lens, recurso anunciado no mês passado
A nova funcionalidade está a ser desenvolvida dentro da aplicação Google, conforme revelou uma análise da versão 16.17 beta feita por JEB Decompiler e partilhada pela página 9to5Google. Foram encontradas várias referências no código que explicam como irá funcionar.
Ao ativar o “Live”, os utilizadores poderão iniciar uma conversa por voz com o Modo IA para procurar informações com base naquilo que a câmara vê — uma espécie de pesquisa falada com contexto visual.
A própria descrição do sistema é clara:
“Com o Live, podes ter uma conversa por voz em tempo real com o Modo IA para encontrar exatamente o que procuras. Toca no botão de silenciar para desativar o microfone ou em fechar para sair.”
No aviso padrão de testes, o Google já deixa claro que se trata de algo ainda em desenvolvimento:
“O modo Live for AI é experimental e pode cometer erros.”
Lens será o centro desta nova experiência
Este modo Live está diretamente ligado ao Google Lens, que passa a assumir um papel mais central no ecossistema de pesquisa da empresa. Algumas mensagens presentes no código mostram claramente essa integração:
- “Começa a falar para pesquisar”
- “Para iniciar a pesquisa e ouvir os resultados, aumenta o volume do teu dispositivo”
- “Toca para interromper a reprodução da resposta”
- “Não é possível fazer uma pergunta complementar. A tua próxima pergunta iniciará uma nova pesquisa.”
Tal como no Gemini Live, haverá sugestões para aumentar o volume e controlo sobre as respostas de voz. Durante a sessão ativa, o utilizador verá uma notificação persistente com botões para “Finalizar sessão” e “Desativar microfone”.
Vídeo, transcrição e partilha de ecrã
Outro detalhe relevante é o conjunto de controlos visuais que estarão disponíveis durante a interação. Segundo o que foi encontrado nas linhas de código, o modo Live permitirá ativar ou desativar o vídeo, bem como partilhar o ecrã, o que poderá ser especialmente útil para demonstrações, apresentações ou assistência visual remota:
- “Transmissão de ecrã”
- “Vídeo”
- “Desativar vídeo” / “Ativar vídeo”
Além disso, o Google parece estar a preparar funcionalidades de acessibilidade e navegação, como a transcrição da conversa em tempo real e a apresentação de links para exploração adicional na web, enquanto decorre o diálogo com a IA. As seguintes linhas foram encontradas no código:
- “Toca em ‘transcrição’ para leres as tuas conversas”
- “Toca em links para explorares a web enquanto conversas”
- “Toca em ‘ativar som’ para retomar o bate-papo”
- “Fala ou toca na onda para interromperes”
IA visual e falada — tudo em simultâneo
Este novo modo coloca o Google numa posição única: oferecer uma ferramenta de pesquisa que combina visão computacional, voz e linguagem natural num único fluxo contínuo. É uma experiência multimodal pensada para dar respostas contextualizadas, com base no que o utilizador vê e pergunta — e não apenas no que escreve.
Ainda sem data de lançamento oficial, o “Live for AI Mode” mostra que a aposta do Google vai além do Gemini ou dos clássicos resultados de pesquisa. A empresa quer transformar a câmara do telemóvel num ponto de entrada inteligente para qualquer pergunta — falada, visual e com contexto em tempo real.
Promoção do dia!