Gemini 2.5 de
Google se posiciona como el modelo de inteligencia artificial más potente hasta la fecha. En el evento Google I/O 2025, la empresa reveló mejoras clave que lo colocan por encima de sus competidores, incluyendo funciones avanzadas en matemáticas, programación y respuesta emocional.
La función Deep Think permite que Gemini analice varias opciones antes de responder, lo que mejora su precisión. Este nuevo modo ha logrado excelentes resultados en pruebas exigentes como el USAMO 2025 en matemáticas, y LiveCodeBench en programación, superando a modelos como GPT-4o mini. En razonamiento multimodal, alcanzó un 84% en la prueba MMMU.
¿Qué novedades trae Gemini para los usuarios?
Entre las nuevas capacidades se encuentra el modo API en vivo, que permite a Gemini detectar emociones en la voz y responder de manera afectiva. También ignora conversaciones de fondo y sabe cuándo intervenir. Estas funciones hacen que el modelo piense y actúe como si entendiera el entorno real.
Además, Google lanzó el AI Mode en su Buscador para todos los usuarios de EE.UU., ofreciendo respuestas más interactivas. Esta visión general ya se encuentra activa en más de 200 países y en 40 idiomas.
Gemini 2.5 mejora la experiencia en Google Workspace
Google también integró Gemini en herramientas como Gmail, Meet, Documentos y Presentaciones. Ahora puedes obtener respuestas personalizadas, traducciones de voz en tiempo real y mayor ayuda para escribir y colaborar con otros.
Más IA para imágenes, videos y música
Google presentó modelos como Imagen 4, Veo 3 y Lyria 2 para crear imágenes, videos y música con calidad profesional. También lanzó Flow, una herramienta que ayuda a crear películas con inteligencia artificial.
Gemini también cambia la forma en que compramos
Con la nueva función de compras asistidas, Gemini te ayuda a buscar ropa, probarla virtualmente y comprarla por ti cuando el precio es ideal, siempre con tu permiso.
¿Qué significa esto para el futuro?
Gemini se expande como un modelo global que no solo resuelve problemas, sino que también crea experiencias. Esto incluye funciones como comprensión de video, memoria y uso compartido de pantalla, gracias al proyecto Astra. Además, Google presentó Jules, un asistente de codificación autónomo que trabaja de forma asincrónica con tus proyectos de software.