Interfaz interactiva del Proyecto Astra. Foto: Google . |
En el evento I/O 2025 que tuvo lugar en la madrugada del 21 de mayo (hora de Vietnam), Google anunció una serie de nuevas características del Proyecto Astra. Lanzado por primera vez en 2024, el Proyecto Astra utiliza un modelo de IA multimodal para extraer y analizar imágenes e información visual en tiempo real. Esta es la gran ambición de Google: hacer que la IA sea más útil en la vida.
Después de un período de prueba, algunas funciones del Proyecto Astra como la respuesta de voz, la memoria y los cálculos básicos aparecerán en las aplicaciones de Gemini y Google.
Durante el evento, Google demostró algunas de las formas en que Astra puede ayudar en la vida cotidiana. Además de responder preguntas y usar la cámara para recordar dónde dejó las gafas, Astra ahora puede completar tareas de forma proactiva sin que el usuario se lo pida.
«Astra puede elegir cuándo hablar según lo que ve. Observa constantemente y responde en consecuencia», afirmó Greg Wayne, investigador de DeepMind.
Según The Verge , la función podría cambiar la forma en que funciona la IA. En lugar de esperar a que el usuario apunte la cámara y solicite ayuda, Astra puede monitorear, escuchar y ayudar automáticamente de manera continua si es necesario. Actualmente, Google se centra en el desarrollo de Astra para teléfonos inteligentes y gafas inteligentes.
Wayne da algunos ejemplos de cómo funciona Astra. Mientras se realiza la tarea, la herramienta puede monitorear y alertar inmediatamente cuando detecta errores, en lugar de esperar a que el usuario termine y solicite una revisión.
Demis Hassabis, CEO de DeepMind, dijo que entrenar a Astra para ejecutar tareas por sí solo fue una de las técnicas más difíciles. Lo llama “lectura de la situación” porque la IA necesita determinar cuándo ayudar, qué actitud adoptar, cómo ayudar y cuándo permanecer en silencio. Son acciones que los humanos hacemos bastante bien, pero son difíciles de cuantificar y estudiar.
La próxima actualización de Astra es extraer información de los usuarios en la Web y en los productos de Google. Según The Verge , la herramienta puede conocer el horario para avisar cuándo salir de casa, leer el contenido del correo electrónico para extraer números de teléfono al registrarse en hoteles...
![]() |
Función de resaltado del Proyecto Astra, que ayuda a escanear objetos y comparar información extraída en otras aplicaciones. Foto: Google . |
La última “pieza” del rompecabezas de Astra es la capacidad de aprender a usar un teléfono Android. Durante la demostración en el evento, Bibo Xiu, un representante del departamento de productos de DeepMind, apuntó la cámara del teléfono a un auricular Sony y le pidió a Astra que identificara el modelo.
Después de que Astra respondió que los auriculares podrían ser los Sony WH-1000XM4 o WH-1000XM3, Xiu continuó pidiendo a la herramienta que encontrara el manual del usuario, luego explicó cómo conectarlos al teléfono. Después de las instrucciones de Astra, Xiu interrumpió y le pidió al chatbot que se conectara por él. Inmediatamente, Astra abrió la configuración y realizó la operación por sí mismo.
El proceso no fue del todo sencillo, ya que Xiu tuvo que permitir que Astra monitoreara la pantalla del teléfono. En el futuro, Google pretende que los chatbots puedan monitorizar las pantallas de forma automática.
En otro video de Google, una persona le pide a Astra que busque un manual de bicicleta Huffy, lo que luego lo lleva a una página específica que contiene instrucciones para reparar una pieza de la bicicleta. Astra incluso puede encontrar un video en YouTube sobre cómo quitar un tornillo pelado y luego comunicarse con la tienda más cercana para encontrar una pieza de repuesto. Todo transcurrió con normalidad durante la actuación.
Aunque Astra no se ha lanzado ampliamente, Google dijo que la función de análisis de imágenes Gemini Live se lanzará para todos los usuarios de iOS (anteriormente solo era compatible con Android).
En el futuro, la inteligencia artificial de Google no solo actuará según órdenes, sino que Astra ayudará a "entender qué se puede y qué no se puede ver en este momento", dijo Xiu.
Fuente: https://znews.vn/ai-cua-google-ngay-cang-thong-minh-post1554615.html
Kommentar (0)