Todo cambia… otra vez
Google ha vuelto a hacerlo. En el Google I/O 2025 ha presentado una auténtica revolución tecnológica que marca el inicio de una nueva etapa en el uso cotidiano de la inteligencia artificial. El foco ha estado en el nuevo Modo IA de Google Search, que ya ha comenzado su despliegue en EE.UU. y se expandirá al resto del mundo próximamente.
Este nuevo formato transforma por completo la experiencia de búsqueda. Ya no hablamos de lanzar consultas básicas y esperar enlaces: ahora es posible mantener una conversación real con el buscador, como si tuviéramos un Perplexity o ChatGPT Search integrado directamente en Google.
La experiencia es tan fluida que más de 1.500 millones de personas ya utilizan AI Overviews cada mes. Esta función (que servía como anticipo) está disponible en más de 200 países, pero ahora la verdadera revolución empieza con AI Mode.
Gemini 2.5 Pro: el nuevo cerebro de Google
La gran estrella del evento ha sido Gemini 2.5 Pro, el modelo más inteligente de Google hasta la fecha, que ahora potencia tanto el buscador como la app Gemini, Google Workspace y Android. Sus mejoras son tan notables que ha conseguido realizar tareas como completar Pokémon Blue de principio a fin o dominar benchmarks matemáticos como USA MO con Deep Think, su nuevo modo de razonamiento intensivo.
Además, Google presentó Gemini Flash 2.5, un modelo ultraeficiente diseñado para respuestas rápidas y económicas, ya disponible para desarrolladores y que incorpora funcionalidades como thinking budgets para controlar costes y latencia.
Google Search se transforma en un asistente inteligente y visual
Con la llegada del Modo IA, el buscador de Google se convierte en algo completamente nuevo. Ya no es solo un motor de búsqueda, es una plataforma conversacional. Puedes hacer preguntas complejas, refinar consultas paso a paso, y mantener el contexto en todo momento. ¿Quieres buscar campamentos de verano asequibles para niños de entre 7 y 9 años, en un radio de 15 km? Google te entiende. Literalmente.
Además, AI Mode es una pestaña fija dentro del buscador, donde Google está desplegando todas sus capacidades más avanzadas: desde respuestas personalizadas basadas en tu historial y apps conectadas como Gmail, hasta recomendaciones que tienen en cuenta tus gustos (por ejemplo, priorizando restaurantes con terraza si detecta que te encantan).
Deep Research y análisis visual interactivo
En este nuevo entorno, Google ha integrado Deep Research directamente en el buscador. En minutos, puede generar un informe extenso, bien estructurado y con referencias, al estilo de lo que ya conocíamos en Gemini Advanced. Es una función pensada para usuarios que quieren ir más allá de una simple respuesta.
Y si lo tuyo son las cifras, Google ahora permite crear gráficas personalizadas al momento. Puedes comparar el rendimiento de dos equipos de béisbol o la evolución financiera de dos empresas, y AI Mode generará una tabla o un gráfico interactivo sin que necesites tocar una hoja de cálculo.
Un buscador que ve, escucha… y actúa
Google también ha dado el salto definitivo a la multimodalidad. Gracias a la integración con Google Lens y Project Astra, ahora puedes mostrarle lo que estás viendo a la IA y tener una conversación sobre ello en tiempo real. Esta función, llamada Search Live, convierte a tu móvil en una especie de asistente visual que interpreta tu entorno, tus dudas y tus necesidades sobre la marcha.
Por si fuera poco, el buscador ahora también actúa. ¿Quieres comprar entradas para un evento? Díselo. El agente de AI Mode (basado en Project Mariner) buscará opciones, rellenará formularios y te mostrará las mejores alternativas para que tú solo tengas que hacer clic y comprar.
Y como no podía ser de otra manera… shopping con IA
El comercio también se ha “Geminizado”. Google no solo responde a preguntas complejas sobre productos, sino que ahora puede trackear precios, avisarte cuando bajan y hasta comprar por ti con Google Pay. ¿Lo mejor? Puedes subir una foto tuya y ver cómo te quedaría la ropa que estás buscando, gracias a un sistema de prueba virtual ultra preciso.
Este es, sin duda, el cambio más profundo en la historia de Google Search. Por eso, en un próximo artículo entraremos en detalle para analizar cómo funciona este nuevo Modo IA, qué oportunidades abre para creadores de contenido, y cómo redefine por completo la forma de interactuar con la información. Porque esto ya no va solo de buscar. Esto va de conversar con el conocimiento.
Una IA que ve, escucha y actúa en el mundo real
Gracias a Gemini Live, ahora es posible mantener conversaciones con IA usando la cámara o compartiendo pantalla. Pero la ambición no termina ahí. Con Project Astra, Google avanza hacia una IA con memoria, control de dispositivos y visión en tiempo real. Este sistema puede ayudarte a reparar una bici, revisar tus correos o reservar en una tienda física sin tocar el teclado.
Y con Gemini en Chrome, la IA asiste a los usuarios mientras navegan, entendiendo el contexto de cada página web y permitiendo tareas como resumir artículos, comparar productos o incluso escribir código.
Nace Flow: cine, animación y apps desde una idea
Google también ha presentado Flow, su nueva herramienta de creación visual pensada para cineastas, creadores de contenido y desarrolladores. Permite crear vídeos animados, apps interactivas o infografías a partir de simples descripciones o dibujos.
Este sistema combina el modelo de vídeo V3, que genera audio y movimiento de personajes, con Imagine 4, su modelo de generación de imágenes de altísima calidad y precisión tipográfica.
También se incluye Canvas, un espacio de co-creación donde los documentos pueden transformarse en tests, podcasts, visualizaciones o incluso simulaciones en 3D.
Gemini llega a Android XR y a las gafas inteligentes
Google ha mostrado por primera vez sus Android XR Glasses, unas gafas ligeras con cámara, altavoces y micrófono integrados que permiten tener un asistente de IA activo todo el día. Estas gafas, desarrolladas junto a Gentle Monster y Warby Parker, pueden leer textos, traducir en tiempo real y hasta ayudarte a encontrar una cafetería solo con escanear un cartel.
También vimos en acción Project Muhan, un visor de realidad extendida creado con Samsung, capaz de mostrar aplicaciones como Google Maps, deportes en vivo y vídeos interactivos guiados por Gemini.
Fuente: Presentación Oficial de Google