¿Por que molestarse en tocar su dispositivo cuando puede simplemente hablarle y mostrarle cosas?
Google I/O 2024 es un torbellino absoluto de noticias y anuncios. Este modelo, en lugar de centrarse en el hardware, Android o Chrome, Google dedicó la mayor parte la conferencia de desarrolladores de este en convencer de las Funciones AI son el futuro. Uno de esos proyectos es el Proyecto Astra, un asistente de IA multimodal con el que puedes semiconversar y que puede usar simultáneamente la cámara para identificar objetos y personas.
Digo semi porque es evidente después de la demostración que esta parte de Astra está en su infancia.
Pregúntale casi cualquier cosa
El objetivo del Proyecto Astra es ser como un asistente que también te gusta en el mundo real. Puede responder preguntas sobre el entorno que tiene alrededor identificando objetos, rostros, estados de ánimo y textos. Incluso puede ayudarte a recordar dónde colocaste algo por última vez.
Hubo cuatro demostraciones diferentes para elegir el Proyecto Astra. Incluyan el modo Narrador, que le pide a Géminis que invente una historia basada en varias entradas y Pictionary, esencialmente un juego de adivinar garabatos con la computadora. También habÃa un modo de interacción, donde la IA mostrar su destreza para encontrar palabras con la misma letra inicial y Free-Form le permitió conversar de un lado a otro.
Con la IA de Google, se puede ver cómo identificar a una persona y sus acciones podrÃa ser una excelente herramienta para ayudar a alguien que es ciego o tiene baja visi?n mientras navega por el mundo que lo rodea.
Mi mayor pregunta es: ¿Algo como el Proyecto Astra reemplazar? al Asistente de Google en dispositivos Android? Después de todo, esta IA puede recordar dónde colocas tus cosas y captar los matices.