Tudo que você precisa saber sobre o que o Google apresentou no Android Show: I/O Edition 2026
Gemini Intelligence com automação de tarefas, notebooks Googlebooks e mudanças no Android 17 dominaram o evento que antecede o Google I/O.

O Google realizou nesta terça-feira o Android Show: I/O Edition, evento preparatório para o Google I/O que concentrou uma quantidade de anúncios que normalmente ocuparia uma keynote inteira. A transmissão revelou o Gemini Intelligence, pacote de ferramentas de inteligência artificial que automatiza tarefas e cria widgets; os Googlebooks, notebooks que unem ChromeOS e Android; mudanças no Android 17 como emojis 3D e pausas forçadas para reduzir o tempo de tela; o Quick Share compatível com AirDrop; ferramentas de captura e edição para Instagram; novos recursos de segurança contra chamadas falsas de bancos; e uma reformulação completa do Android Auto com streaming de vídeo e pedidos de comida por voz. O Google I/O principal acontece nos dias 19 e 20 de maio.
Googlebooks: o Chromebook reimaginado com Android e Gemini Intelligence
O primeiro anúncio da transmissão foi uma nova categoria de notebooks chamada Googlebooks. Laptops que unem o ChromeOS ao Android em uma plataforma compatível com o Gemini Intelligence. O conceito lembra o Copilot+ que a Microsoft lançou em 2024, mas o Google aposta em uma integração mais profunda com os celulares Android: será possível acessar arquivos do telefone diretamente do gerenciador de arquivos do Googlebook, em mais um passo para reduzir a distância que separa o ecossistema do Google do nível de interoperabilidade que a Apple oferece.
Os primeiros Googlebooks chegam no segundo semestre e serão fabricados por Acer, ASUS, Dell, HP e Lenovo. O Google DeepMind contribuiu com uma ferramenta chamada Magic Pointer: ao mexer o cursor sobre um elemento na tela, o Gemini sugere ações contextuais, como criar uma reunião a partir de uma data em um e-mail.

Gemini Intelligence: a IA que age em segundo plano
O coração do evento foi o Gemini Intelligence, um pacote de funcionalidades de agentes de IA que será implementado no Android, ChromeOS, Wear OS, Android Auto e Android XR. A automação de tarefas é o destaque: o assistente poderá executar ações que atravessam múltiplos aplicativos, como reservar uma vagas, encontrar informações no Gmail e adicionar os livros recomendados ao carrinho de compras. Outro exemplo prático mostrado pelo Google é ler a lista de compras que está no aplicativo de notas do celular e transferir os itens diretamente para o carrinho do supermercado. O assistente também extrai contexto da tela e das imagens armazenadas no telefone, bastando tirar uma foto de um local para pedir que planeje um roteiro de visita.
O Create My Widget gera widgets a partir de descrições em linguagem natural. O usuário diz algo como “sugira três receitas de refeição com alta proteína para preparar durante a semana” e o sistema constrói um widget com exatamente esse conteúdo, que pode ser redimensionado na tela inicial. O Personal Intelligence preenche formulários automaticamente com dados espalhados pelos aplicativos conectados, com a possibilidade de desligar a conexão a qualquer momento.
O Gemini Intelligence também traz uma linguagem visual atualizada, baseada no Material 3 Expressive que estreou no ano passado. A expansão começa primeiro nos Galaxy S26 e Pixel 10, depois se estende a outros dispositivos ao longo do verão. O Google promete controles granulares: será possível ativar ou bloquear o acesso do assistente a aplicativos específicos, e um novo menu de alternância chega ainda este ano.
Gemini no Chrome para Android
O assistente será integrado ao navegador Chrome no Android, repetindo o que já acontece na versão desktop desde setembro. Com o Gemini 3.1, o navegador poderá resumir páginas da web, comparar conteúdos entre sites e auxiliar na pesquisa de tópicos. A integração também traz o Nano Banana, que gera imagens dentro do navegador ou personaliza imagens da web.
Um recurso de auto-browsing será capaz de executar tarefas como reservar uma vaga de estacionamento próxima a um evento. A confirmação do usuário será exigida antes de compras ou ações sensíveis. A ferramenta chega primeiro para assinantes AI Pro e Ultra nos Estados Unidos, com lançamento previsto para o final de junho em dispositivos com Android 12 ou superior.
Android 17: emojis 3D, pausas anti-doomscrolling e Quick Share com AirDrop
O Android 17 foi detalhado com um pacote de novidades que vão além da IA. A mais visual é o Noto 3D, uma coleção de emojis tridimensionais que estreia nos Pixel ainda este ano. O Rambler, ferramenta de transcrição por voz, remove pausas, repetições e palavras de preenchimento como “tipo” e “ah”, e funciona mesmo quando o usuário alterna entre idiomas no meio de uma frase. O áudio não é armazenado.
O Pause Point é uma tentativa de reduzir o tempo de tela: ao tentar abrir um aplicativo para o qual o limite de uso já foi atingido, o sistema impõe uma pausa de 10 segundos e sugere exercícios de respiração, a definição de um timer ou até mesmo fotos para olhar. Desligar o recurso exige reiniciar o telefone. Para criadores de conteúdo, o Screen Reactions permite gravar a tela e a câmera frontal simultaneamente, facilitando vídeos de reação. O recurso chega primeiro aos Pixel. Um aplicativo do Adobe Premiere para Android também está a caminho, com modelos e efeitos exclusivos e a possibilidade de publicar YouTube Shorts sem trocar de app.
A transferência de dados do iPhone para o Android foi simplificada: Google e Apple trabalharam juntas para permitir a migração sem fio de senhas, fotos, mensagens, aplicativos, contatos e até eSIM. O recurso chega primeiro aos Pixel e Galaxy. O Quick Share, por sua vez, se torna compatível com AirDrop em aparelhos Samsung, Oppo, OnePlus, Vivo, Xiaomi e Honor. A partir de hoje, qualquer Android pode gerar um QR code no Quick Share para compartilhar arquivos com dispositivos iOS via nuvem.
Instagram otimizado para tablets e com edição por IA
A Meta finalmente otimizou o Instagram para tablets Android, e o aplicativo agora oferece ferramentas de captura e edição nativas. Dispositivos de alto desempenho poderão capturar e visualizar vídeos em Ultra HDR, com estabilização integrada e modo noturno. O Instagram Edits para Android ganhou um recurso de upscaling de fotos e vídeos com IA rodando localmente no dispositivo, além de uma ferramenta que separa trilhas de áudio para aumentar o volume da música e remover ruídos de vento.
Segurança: proteção contra chamadas falsas de bancos e mais controle
O Google reforçou a segurança em várias frentes. A mais prática é a verificação de chamadas de instituições financeiras: o Android 17 será capaz de identificar se uma ligação realmente vem do banco do usuário e desligar automaticamente se a chamada for falsa. Os primeiros parceiros são Revolut, Itaú e Nubank, e o recurso exige que o aplicativo do banco esteja instalado e o usuário logado. Funciona em dispositivos com Android 11 ou superior.
O Android 17 também terá monitoramento dinâmico de sinais para detectar aplicativos que mudam ou escondem seu ícone e são lançados em segundo plano, ou que abusam de permissões de acessibilidade. O download de aplicativos via Chrome será protegido pelo Safe Browsing, que escaneia arquivos em busca de malware antes da instalação. O número de tentativas incorretas de senha ou PIN será reduzido, com intervalos mais longos entre tentativas. O IMEI do dispositivo ficará acessível na tela de bloqueio por padrão para auxiliar na identificação do proprietário em caso de perda ou roubo.
O controle de localização também foi refinado: no Android 17, será possível liberar a localização precisa apenas para tarefas específicas enquanto o aplicativo está aberto, minimizando o rastreamento. Os desenvolvedores ganharam uma API para solicitar um contato específico em vez de exigir acesso à lista inteira de contatos.
Android Auto reformulado com streaming de vídeo e pedidos por voz
O Android Auto recebeu a reformulação mais profunda desde seu lançamento, baseada no Material 3 Expressive. A interface agora se adapta a qualquer formato de tela de central multimídia, e o Google Maps ganha o Immersive Navigation, uma visualização 3D que mostra prédios, terrenos, faixas de rodagem, placas e semáforos.
Quando o carro está parado, o YouTube e outros aplicativos poderão transmitir vídeo em 60 quadros por segundo em Full HD. O recurso chega ainda este ano a modelos selecionados de BMW, Ford, Genesis, Hyundai, Kia, Mahindra, Mercedes-Benz, Renault, Škoda, Tata e Volvo. Ao retomar a condução, o vídeo passa automaticamente para áudio se o aplicativo suportar reprodução em segundo plano. O áudio espacial Dolby Atmos também está a caminho em aplicativos e veículos compatíveis.
O Gemini Intelligence foi integrado ao Android Auto com um recurso chamado Magic Cue: se um amigo pergunta um endereço por mensagem de texto, o sistema consulta outras mensagens, o Gmail e o Google Calendar em busca da informação e gera uma resposta que pode ser enviada com um toque. Também será possível pedir comida para retirada ou entrega por comando de voz, com o DoorDash como parceiro de estreia. Os carros com Google built-in estão recebendo o Gemini, e o Immersive Navigation nesses veículos usará a câmera frontal para oferecer orientação ao vivo de faixas de rodagem.
O Android Show: I/O Edition mostrou que o Google está costurando a IA generativa em cada produto do ecossistema, dos celulares aos carros, passando por notebooks e tablets. O Google I/O, na próxima semana, deve trazer mais detalhes sobre a disponibilidade de cada recurso e os próximos dispositivos contemplados.




