Google está celebrando su fiesta grande en Mountain View: la conferencia anual para desarrolladores del gigante tecnológico, que este año viene cargadita. La Google I/O 2025 trae, además, un mensaje claro: la inteligencia artificial está lista para actuar. Bajo esta filosofía, la compañía ha mostrado cómo sus últimos avances en IA están llegando a los productos que usamos cada día.
El CEO de la empresa, Sundar Pichai, ha llevado la voz cantante durante la keynote del primer día. El directivo ha arrancado con un aviso: estamos ante la “temporada Gemini”, aunque después ha bromeado diciendo que en Google “todos los días es temporada Gemini”.
En la era de la inmediatez en la que vivimos, la velocidad es fundamental y, por ello, el consejero delegado de Google y Alphabet ha destacado la rapidez con la que están lanzando sus modelos más recientes: desde el último I/O, han presentado más de una docena de modelos e investigaciones punteras y lanzado más de 20 productos y funciones importantes de IA.
No solo se trata, sin embargo, de la abundante oferta: la demanda también ha crecido exponencialmente:
- El procesamiento mensual de tokens en productos y APIs ha pasado de 9.7 billones a 480 billones en un año, un aumento de aproximadamente 50 veces.
- Más de 7 millones de desarrolladores han construido con la API de Gemini, lo que representa un crecimiento de más de 5 veces desde el último I/O.
- La aplicación Gemini tiene más de 400 millones de usuarios activos mensuales. El uso del modelo 2.5 Pro en la aplicación ha aumentado un 45%.
- En Search, los AI Overviews tienen más de 1.500 millones de usuarios mensuales y están “impulsando un crecimiento de más del 10%” en ciertos tipos de consultas.
Ahora toca conocer lo que está por venir. Estas son las principales novedades.
Gemini 2.5 y Gemini Live: la nueva era del asistente de Google
Google ha presentado Gemini 2.5, su modelo de inteligencia artificial más avanzado hasta la fecha, que ahora impulsa una experiencia más natural, multimodal y proactiva.
Una de las novedades más destacadas es Gemini Live, una función que permite al asistente interactuar en tiempo real con la cámara y la pantalla del dispositivo, ofreciendo asistencia visual y contextualizada. Por ejemplo, los usuarios pueden mostrar objetos a la cámara y recibir información inmediata, o compartir su pantalla para obtener ayuda específica sobre lo que están viendo.
Además, Gemini Live incorpora capacidades de traducción en tiempo real y una comprensión más profunda del contexto.
AI Mode: la búsqueda de Google se transforma
La compañía ha introducido el AI Mode en su motor de búsqueda, una función que transforma las consultas tradicionales en interacciones más conversacionales y contextuales. Este modo permite a los usuarios realizar preguntas más complejas y recibir respuestas detalladas, integrando capacidades de resumen y generación de contenido.
Además, se han implementado herramientas experimentales como la prueba virtual de ropa mediante realidad aumentada, mejorando la experiencia de compra en línea.
Project Astra y Project Mariner: hacia un asistente universal
Google ha avanzado en su visión de un asistente de inteligencia artificial universal con Project Astra, que combina capacidades multimodales para ver, escuchar y comprender el entorno del usuario en tiempo real. Este proyecto busca ofrecer una asistencia más intuitiva y proactiva, anticipándose a las necesidades del usuario.
Por otro lado, Project Mariner se centra en la creación de agentes de IA capaces de navegar y realizar acciones en la web en nombre del usuario, como completar formularios o interactuar con interfaces, marcando un paso significativo hacia la automatización de tareas digitales.
Veo e Imagen 3: creatividad audiovisual con IA
Google ha presentado también Veo, su nuevo modelo de generación de vídeo, capaz de crear clips en alta calidad (1080p) a partir de texto, con comprensión avanzada del movimiento, estilo y escenas. Le acompaña Imagen 3, un generador de imágenes mejorado, más detallado y preciso.
Ambas herramientas estarán disponibles dentro de la plataforma Google Labs, donde los usuarios pueden probar las últimas tecnologías en fase experimental.
Android XR y el futuro inmersivo
La realidad extendida ha sido otro foco del evento con la presentación de Android XR, un sistema operativo diseñado para dispositivos de realidad mixta. Google ha mostrado avances en sus gafas inteligentes, desarrolladas en colaboración con empresas como Samsung y Xreal, que integran funciones como navegación en tiempo real, traducción instantánea y asistencia visual, todo potenciado por Gemini.