Tempo de leitura: 9 min
Bom dia, Vancouver, boa tarde, Brasil!
Acabei de voltar dos headquarters do Google, em Mountain View, e fiz uma parada no Canadá enquanto me preparo para o próximo evento.
Como prometido, trouxe um resumão do que rolou no Google I/O 2025 — direto da fonte (e com umas histórias de bastidores que só quem estava lá viveu).
Pela terceira vez, fui convidada pelo Google para acompanhar sua conferência anual para desenvolvedores diretamente de Mountain View, na Califórnia. O Google I/O é um dos meus eventos prediletos, pois além das keynotes, tenho a oportunidade de conversar com muitos pessoas chave da empresa.
Neste ano, por exemplo, participei de coletivas de imprensa com a presença de grandes lideranças, como Sundar Pichai, CEO do Google e Liz Reid, VP de Search.
Durante a apresentação de abertura do evento, a palavra Gemini foi dita 95 vezes, enquanto AI perdeu o trono da repetição, ficando com “apenas” 92. A personalização foi um dos grandes motes, ao lado dos agentes de IA e a nova era dos buscadores.
Qual é o diferencial do Google em IA?
Durante uma sessão de perguntas e respostas, Sameer Samat, presidente do Android, disse que a vantagem do Google perante seus concorrentes é que a empresa consegue atuar de ponta a ponta no processo de criação e implementação de IA.
Estamos falando de infraestrutura de nuvem, pesquisa, sistemas operacionais, equipes de hardware e até mesmo silício próprio. Para ele, fazer todo o trabalho “dentro de casa” permite a criação de serviços poderosos.
No entanto, no mesmo dia em que os desenvolvedores se aprofundavam nas novidades do Google I/O, a OpenAI anunciava a compra da startup de Jony Ive, ex-Apple, para criar seu próprio hardware de IA.
Tudo isso indica que os próximos capítulos da “guerra da IA” será bem movimentada entre as gigantes da tecnologia.
Android XR
Por falar em hardware, como uma boa apreciadora de gadgets que sou, uma das coisas que mais brilhou meus olhos foi o Android XR, sistema operacional que vai equipar headset e óculos de realidade mista.
Depois de esperar por algumas horas em uma fila de jornalistas, eu pude passar 5 minutos (cronometrados) com a evolução do Google Glass, óculos que têm o mesmo estilo da Ray-Ban Meta — bem “normais” — mas que, além de fazer fotos e vídeos, ainda traz informações projetadas na parte interna das lentes.
Direcionamentos do Google Maps, notificações e até preview das imagens feitas com os óculos aparecem diante dos seus olhos sem interferir na interação com o mundo real.
Além disso, o Gemini também ajuda a reconhecer o que está a nossa volta, assim como a Meta AI faz na solução da Ray-Ban, porém com muito mais possibilidades de interação com outros aplicativos e com o poder do buscador.
Por enquanto, temos a confirmação de lançamentos de óculos com Android XR por marcas como XREAL, Gentle Monster e Warby Parker. O protótipo que eu testei era feito em parceria com a Samsung, mas eles não deram indícios de que a sul-coreana efetivamente faria um lançamento de produto final.
Eu já estou totalmente preparada para ter um desses.
Eu também consegui testar o Project Moohan, headset feito em parceria com a Samsung e equipado com chipset da Qualcomm. A experiência aqui foi um pouco mais longa e eu achei demais conseguir usar o Circule para Pesquisar no Google no mundo real.
Bastava circular em volta de algum objeto ao meu redor para que os óculos imersivos trouxessem os resultados da busca explicando o que era ou onde eu poderia comprar aquilo.
A experiência é bem parecida com a do Apple Vision Pro, mas achei a solução da Samsung mais leve e confortável. Outro ponto extremamente positivo é a possibilidade de usar o Gemini como um assistente de navegação.
O Project Moohan será lançado ainda em 2025 e a grande expectativa é para saber se ele custará menos do que os US$ 3.500 do Apple Vision Pro.
Flow
Outro lançamento que merece destaque é o Google Flow, um novo aplicativo de criação de vídeos com inteligência artificial que permite gerar clipes completos combinando imagens, texto e narração, usando tecnologias como Gemini, Veo e Imagen.
🦥 resumo preguiçoso dos anúncios do Google I/O 2025
Modo IA no Google Search: uma nova aba que permite fazer buscas com a ajuda do Gemini, o chatbot de inteligência artificial do Google, oferecendo respostas mais completas e interativas direto na busca
Agentes de IA do Gemini, do Google: assistentes autônomos vão executar até 10 tarefas complexas por você ao mesmo tempo — como pesquisar na web e fazer compras — agindo de forma proativa sem precisar de instruções passo a passo
Google Beam: a evolução do Project Starline, uma cabine de videochamada com tecnologia de campo de luz e múltiplas câmeras que cria uma imagem 3D realista da pessoa com quem você está conversando, dando a sensação de que ela está fisicamente presente. A novidade será lançada em parceria com a HP
Gemini no Chrome: botão no navegador que resume páginas e ajuda na navegação. Por enquanto, só para assinantes do plano Pro e Ultra (US$ 250/mês 💸) nos EUA
Gemini Deep Think: modo de raciocínio avançado no Gemini 2.5 Pro. Ele “pensa melhor antes de responder”
Novidades do Gemini Live para todos: agora o compartilhamento de tela e de vídeo no Gemini Live está liberado para todos os usuário de Android e iOS
Dublagem no Meet: recurso de tradução simultânea durante videochamadas chega apenas em inglês e espanhol, por enquanto
Gemini Deep Think: um modo avançado do modelo Gemini 2.5 Pro que permite à IA considerar múltiplas possibilidades antes de responder, tornando suas respostas mais precisas e bem fundamentadas em tarefas complexas.
Ainda tenho muita coisa para destrinchar sobre o que ouvi e vivi no Google I/O mais badalado dos últimos anos, mas como ainda estou “na estrada”, quis trazer pelo menos o resumo para quem não conseguiu acompanhar todos os anúncios.
Fiquem de olhos nas minhas redes sociais e no canal do YouTube, pois também estou levando muitos conteúdos em tempo real para lá.
Obrigada pela companhia e nos vemos em breve!
Besos