
A Google quer quebrar mais uma barreira na comunicação com o SignGemma, um novo modelo de inteligência artificial apresentado no I/O 2025 e que promete traduzir língua gestual para texto falado em tempo real.
A promessa é simples e ambiciosa: permitir que pessoas com deficiência auditiva ou da fala consigam comunicar-se com quem não domina a linguagem gestual, com fluidez e sem depender da internet.
Acessibilidade que não exige internet

Na continuidade do que parece ser uma missão de eliminar ou reduzir significativamente as barreiras de comunicação, a Google foi além dos recursos de tradução de línguas faladas. Desenvolvido pela Google DeepMind, o SignGemma não é apenas mais uma ferramenta de tradução automática.
Treinado com diversos estilos de linguagem gestual — tendo melhor desempenho com a Língua Gestual Americana (ASL) — o SignGemma é capaz de interpretar movimentos das mãos, formas e expressões faciais, convertendo tudo isso em texto falado.
O detalhe técnico que faz a diferença: o modelo funciona localmente, ou seja, não precisa de ligação à internet para operar, tornando-o especialmente útil em contextos com conectividade limitada.
SignGemma será open-source para diferentes aplicações
A acessibilidade também foi um dos pilares da proposta: o SignGemma será open-source, o que significa que qualquer pessoa, empresa ou organização poderá utilizá-lo, adaptá-lo ou integrá-lo noutras soluções. Isto abre caminho para aplicações em escolas, serviços públicos, atendimentos médicos e qualquer cenário onde a comunicação inclusiva seja uma necessidade.
Além disso, o SignGemma foi construído com base na arquitetura do Gemini Nano, o que permite a sua futura integração noutras ferramentas do ecossistema Google, como o Gemini Live.
Sem dúvida, uma tecnologia que pode transformar a comunicação de pessoas com deficiência auditiva ou da fala. E para quem quiser experimentar a tecnologia antes do lançamento oficial — previsto para o final de 2025 —, a Google disponibilizou um formulário de interesse.