Um dia após o anúncio da nova versão do ChatGPT, que irá interagir com o uso de imagem e áudio, o Google revelou que pretende utilizar funcionalidades de mídia em seu APP de IA o Gemini.
Projeto Astra
Na última terça-feira durante o evento Google I/O que ocorreu na Califórnia, foi revelado o “Projeto Astra” IA que irá interagir com o usuário pelo meio de imagem e vídeos exibidos pela câmera do smartphone em tempo real, vale lembrar que essa IA também fará o uso de textos.
Segundo o CEO da Google, essa funcionalidade irá expandir o modo em que as pessoas poderão realizar perguntas e receber respostas. A empresa também bateu o martelo referente a inclusão da IA generativa nas buscas, algo que deve acontecer até o final de 2024.
O Astra irá “enxergar”
Em um vídeo de demonstração é possível ver a interação onde o Astra irá “enxergar” o que o usuário apontar para a câmera, e dizer o que é o objeto, até mesmo responder perguntas sobre, como por exemplo poderá até identificar um bairro somente apontando a câmera para a janela, veja o vídeo de demonstração abaixo:
Vídeo de apresentação (Vídeo: reprodução/youtube)
É notável que o vídeo foi gravado sem edições, e que além de objetos, localizar o óculos da usuária, e identificar o bairro, o Gemini foi capaz de identificar um código de programação e dizer a funcionalidade das linhas do código.
Quando poderá ser acessado?
É importante lembrar que quando se trata de uma IA, nem todos os avanços ficam disponíveis para todo o mundo, e alguns deles depende de fatores como a versão do dispositivo, se compatível com a atualização. E claro, que deve considerar que as atualizações são feitas na estrutura do APP, ou seja, não é algo que irá aparecer como uma nova função para adicionar, mas sim irá aparecer, conforme o usuário aceita e atualiza o aplicativo.