El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.

También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Starting today in the U.S., you can try clothes on virtually in Labs. ��
— Google (@Google) May 20, 2025
Say you see a great shirt, but you’re not sure if it’s right for you. Use our new try on tool to upload a picture of yourself and get a feel for what the product might look like on *you.* pic.twitter.com/kPgXxrncg0
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
Last year we unveiled Project Astra on the #GoogleIO stage. See how it’s evolved since then — and what might be possible in the future. pic.twitter.com/ObMi7gFrrl
— Google (@Google) May 20, 2025
También se anunció Project Mariner, pensado para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (como comprar cosas en otros sitios o intercambiar información), es decir, utilizando servicios de terceros.
Project Mariner’s capability to understand, navigate, search, and organize is helping us towards our goal of building AI that is truly helpful in our digital lives.
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Ready to explore the future of agents? ↓https://t.co/ATFRast16K pic.twitter.com/ntEBJcdaso
Se le puede pedir, por ejemplo, que busque un departamento para alquilar en base a nuestras necesidades y presupuesto. Lo que hará el agente será navegar en diferentes plataformas para registrar las opciones que encajen con las indicaciones brindadas y mostrar ese resultado.
Doblaje, respuestas inteligentes y audio expresivo
Otro de los anuncios que el CEO de Google hizo durante el evento fue que Google Meet, su aplicación para videollamadas, recibirá una actualización con la que sumó la capacidad de generar traducciones en tiempo real. Pero esto no lo hace mostrando subtítulos, sino que replica la voz de la persona que está hablando para doblar lo que dice a otro idioma con un tono similar. En principio, el servicio estará disponible para traducciones de inglés a español y viceversa para los usuarios pagos del servicio.
Smart Replies, la herramienta de generación automática de respuestas inteligentes, suma respuestas personalizadas que tendrán en cuenta el tono del usuario, su manera de escribir y detalles como la forma de despedirse en una conversación. Hasta ahora, las respuestas inteligentes eran genéricas, por lo que la novedad es que pasarán a analizar modismos y, si el usuario lo autoriza, la información almacenada en su Gmail y Drive.
También se mostraron novedades para Gemini 2.5 Flash y Pro, que pueden generar audio mucho más expresivo mediante voces sintéticas capaces de replicar susurros y diferentes tonos de voz en 24 idiomas. También indicaron que estos nuevos modelos son un 22% más eficientes, ya que requieren de menos tokens para lograr resultados similares.
También se presentaron Gemini Difussion y Deep Think, una nueva versión prototipo de Gemini 2.5 Pro, que fue entrenado para “tomarse más tiempo” para analizar la mejor respuesta para una consulta. Se basa en la utilización de pensamiento paralelo, es decir, analiza diferentes soluciones para la petición del usuario y determina cuál es la más efectiva antes de generar su respuesta.
Imagen, video y música sintética
Google presentó, además, su modelo Imagen 4, un nuevo generador de imágenes que sería "10 veces más rápido", con mejor manejo de texto y mayor comprensión de los pedidos de los usuarios.
Imagen 4 delivers visuals that pop with richer details, more nuanced color, and better text outputs.
— Google Gemini App (@GeminiApp) May 20, 2025
Everyone can make images for free in the Gemini App today: https://t.co/awhPeHZIqm#GoogleIO pic.twitter.com/nnI8ZGIELv
Otra de las mejoras se aplicó para el modelo Veo 3, que ahora será capaz de generar tanto video como el audio que lo acompaña, incluyendo efectos de sonido y diálogos.
También mostraron Lyria 2, un nuevo motor experimental para la generación de música mediante IA.
We recently expanded access to Music AI Sandbox �� our suite of experimental AI tools for professional musicians powered by our latest model Lyria 2.
— Google DeepMind (@GoogleDeepMind) May 20, 2025
�� This medley made with artists will transport you through different genres, sounds, and moods. Sound on ↓ pic.twitter.com/3ns1X5ouH8
Flow, por su parte, es su herramienta de edición de video mediante IA, que puede crear y modificar el video para que se ajuste en tiempo y forma a lo necesita cada creador de contenido.
Expansión de Gemini
En conjunto con todos estos anuncios, Google confirmó que Gemini estará disponible en relojes con WearOS, tableros de autos con Android Auto, y en anteojos de realidad aumentada con Android XR.
Incluso anunciaron que pondrán a la venta sus propias gafas de diseño en colaboración con Warby Parker y Gentle Monster, dos marcas reconocidas de anteojos tradicionales, en una iniciativa que imita a la de Ray-Ban con Meta.
Our partnership with Samsung is extending to glasses. We’re creating the software and reference hardware, and developers will be able to start building for glasses later this year. pic.twitter.com/bqu1wR26ev
— Google (@Google) May 20, 2025
Habrá, además, un nuevo plan de suscripción además de Google AI Pro, que cuesta 20 dólares al mes: Google AI Ultra tendrá un precio de USD 250 por mes y ofrecerá acceso total a las herramientas de IA, a YouTube Premium y 30 TB de almacenamiento en la nube. Se trata de una propuesta pensada para clientes corporativos o profesionales.