Esta semana ha sido la semana de Google en el frente de IA. A escasos días del Google I/O 2026, la compañía está distribuyendo en producción una serie de features que cambian cómo usaremos Android, Chrome y los AirPods de su rival. Resumen rápido de lo más importante anunciado entre el 12 y el 16 de mayo.

Android se vuelve agéntico
Google añadió acciones agénticas y widgets generados por IA a Android. Las nuevas features Gemini-powered permiten que la IA complete tareas multipaso a través de apps, navegue la web, rellene formularios y dicte por voz usando solo prompts en lenguaje natural.
- Cross-app actions: «envíale a Juan la foto que tomé ayer con un mensaje pidiéndole feedback» → Gemini abre Fotos, busca la imagen, abre WhatsApp y compone el mensaje.
- AI-generated widgets: pides «un widget que me muestre cuánto gasté en cafeterías este mes» y Android genera el widget dinámico que se actualiza solo.
- Web automation: rellena formularios y reservas con la información de tu cuenta de forma autónoma.
- Voice dictation contextual: dicta en la app correcta sin tener que cambiar manualmente.
Es la respuesta directa de Google a Apple Intelligence y a lo que se viene en iOS 19. Y por ahora más capaz, porque Apple sigue dependiendo mucho de ChatGPT vía partnership.
Gemini en Chrome: el navegador inteligente
Gemini ahora está integrado profundamente en Chrome:
- Resumen contextual de cualquier página con un click en la sidebar
- Smart form-filling usando tus datos guardados y el contexto de la página
- Traducción real-time en webpages — no solo el texto sino también imágenes con OCR
- Búsqueda multi-tab: «encuentra en qué pestaña vi el precio del vuelo a Tokio»
Los tests early-access muestran 25% menos tiempo para completar workflows de investigación. Para periodistas, estudiantes y cualquiera que navegue con 20 pestañas abiertas, es un salto notable.
Omni: el generador de video conversacional (rumor pre-I/O)
Reportes consistentes apuntan a que Google va a anunciar en I/O 2026 un sistema nuevo de generación de video llamado Omni, basado en Gemini. Las demos privadas filtradas muestran capacidades de:
- Generar video desde prompts conversacionales dentro de la app de Gemini
- Remix de videos existentes: subir un clip y pedir «haz que el cielo sea atardecer y añade música épica»
- Edición por instrucciones: «quita el segundo 12 al 15 y baja el volumen de la primera mitad»
- Integración inline: el video se genera/edita dentro del chat, no en un app separada
Si las demos son reales, Omni competiría con Sora 3 de OpenAI y Veo 3 de la propia Google (rebajado a producto interno tras la integración). El nombre «Omni» sugiere multi-modal completo: texto + audio + imagen + video unificados.
Live Translate llega a iOS
Google expandió Live Translate — su traducción en tiempo real para auriculares — a dispositivos iOS y nuevos países (Francia, Alemania, Reino Unido). Antes solo Pixel Buds con teléfonos Android tenían acceso pleno; ahora cualquier usuario de iPhone con AirPods (¡!) puede activarla via la app de Google Translate.
El golpe diplomático es claro: Google está apoyándose en hardware Apple para llevar SU IA a los usuarios de Apple. Una jugada Microsoft-style, donde el software/servicio gana más que el silicio.
El contexto del semáforo
Google I/O 2026 es la semana que viene. Esta tanda de lanzamientos pre-I/O parece la preparación de terreno: «miren todo lo que ya tenemos antes del keynote». Probablemente en el keynote vendrá Omni oficial, Gemini 3, AI Studio para developers, y posiblemente una jugada grande en agentes corporativos para competir con Anthropic Managed Agents.
Mientras tanto, Google ya está donde sus usuarios viven todos los días: Chrome (browser #1 mundial), Android (sistema #1 mundial), y ahora iOS via AirPods. La distribución es la cancha donde Google sigue ganando.
