Tal como se esperava, a conferência I/O da Google concentrou-se na tecnologia de Inteligência Artificial e uma das novidades mais interessantes foi o novo projeto Astra.
Este foi apresentado como o “assistente IA de próxima geração” e é notoriamente a resposta da Google ao GPT-4o da OpenAI.
Demis Hassabis, um dos responsáveis pela equipa IA da Google, não só explicou ao pormenor o novo projeto Astra, como também exibiu um vídeo para mostrar todas as suas capacidades.
Ficámos então a saber que o assistente Astra é capaz de reconhecer e entender objetos e cenas vistos através das câmaras dos dispositivos e que pode conversar sobre estes mesmos objetos.
No vídeo vimos uma demonstração, na qual o Astra reconhece uma coluna e é capaz de falar, em linguagem natural, sobre este dispositivo quando questionado. Para o fazer, o projeto Astra recorre a uma versão avançado do Gemini Ultra.
À semelhança do GPT-4o, também o Astra é multimodal. Por outras palavras, foi treinado em áudio, imagens, vídeo e texto e é capaz de assimilar, remisturar e gerar dados nativamente nestes quatro formatos.
De acordo com a própria Google, o projeto Astra vai ser disponibilizado ainda durante este ano através de uma nova interface designada por Gemini Live. Demis Hassabis avançou também que a empresa está a testar vários modelos de óculos inteligentes, mas não está ainda definido se vão ser lançados no mercado.
O responsável da Google acredita que fornecer uma compreensão mais profunda do mundo físico aos assistentes IA é uma peça fundamental para maiores avanços na tecnologia de Inteligência Artificial.
Diz Hassabis que “um agente universal multimodal está no caminho certo para a Inteligência Artificial geral. Isto é o começo de algo”.