No contexto da conferência para desenvolvedores Google I/O, o CEO da empresa norte-americana Sundar Pichai revelou a mudança de paradigma que a empresa está a adoptar, fugindo do foco na tecnologia móvel, para a vertente de inteligência artificial avançada e aprendizagem computacional.

Até hoje, para além do seu motor de busca, a Google tem tido um papel fundamental no desenvolvimento das plataformas móveis e cloud. Tendo-se focado em trazer as melhores apps e experiências móveis através de serviços cloud como por exemplo o YouTube, o Drive e os Docs, a Google está hoje numa posição mais privilegiada para dar o próximo passo.

Vê ainda: Android Go: A solução para dispositivos com menos recursos

   

Na apresentação de ontem ficámos a perceber então a nova etapa da empresa, mais focada no desenvolvimento computacional, na análise de dados e conteúdo, fomentando o desenvolvimento da automação. Por outras palavras, a Google adoptou uma posição maioritariamente de segundo plano, no sentido de expandir e evoluir a capacidade computacional de interpretar, processar e aprender informação.

Pichai revelou na sua apresentação que a mudança surge quando em vez de apenas texto e código, os computadores começaram a ser capazes de perceber e interpretar fotografias e vídeos. O mais flagrante dos exemplos deste novo tipo de capacidade computacional, é a nova app Google Lens.

Google

Algo que nos pode parecer simples como a interpretação de uma imagem ou foto, é de facto algo muito difícil de fazer informaticamente. Sendo mais específico, isto implica uma alteração de toda a infraestrutura de servidores e bancos de processamento.

Traduzindo isto para uma perspectiva mais palpável, quanto perguntamos ao “Ok Google” por restaurantes no centro da cidade, ou perguntamos ao Photos pelas fotos das férias do ano passado, são os mais recentes desenvolvimentos da Google que nos permitem obter resultados úteis.

Vê também: Google Lens torna a câmara do teu smartphone mais inteligente

Através de uma simples foto, o algoritmo consegue interpretar o contexto, as pessoas, a circunstância, a morada onde foi tirada e organizar a tua galeria de acordo e ainda sugerir partilhas dessa foto com as demais pessoas presentes.

Indo mais além ainda na interpretação de imagens, será possível através do Google Lens gravar números de telefone, moradas, comprar bilhetes para um espetáculo, entre outros a partir de uma imagem no teu equipamento, ou da câmara do teu smartphone.

Se sabes o que é o Google Now on Tap, imagina esta funcionalidade com base em qualquer conteúdo e não só formato de texto, incluindo directamente da tua câmara.
Num sentido mais abrangente, trata-se de uma maneira mais natural de usar o Google em qualquer equipamento, como por exemplo através de voz.

A ideia é que a inteligência artificial procure e organize aquilo que tu precisas, mais rápido e mais fundamentado do que tu poderias fazer.

Outros assuntos relevantes:

Samsung Galaxy C10 vai mesmo ser o primeiro com dupla câmara

Android Go: A solução para dispositivos com menos recursos

Android O chegará numa altura em que há mais de 2 mil milhões de…

Com extrema admiração por tecnologia móvel e pela evolução tecnológica da nossa geração em geral, juntei-me à 4gnews para te trazer todas as novidades sobre este nosso mundo da tecnologia falada em português.