Google Gemini: Innovación en Interacción con IA a través de Videos y Pantallas Compartidas

Google continúa liderando la innovación en el campo de la inteligencia artificial con su asistente Gemini, introduciendo funciones que transforman la manera en que interactuamos con la tecnología. En el Mobile World Congress (MWC) 2025 en Barcelona, Google presentó dos herramientas revolucionarias: Screenshare y la capacidad de realizar consultas en tiempo real a partir de videos, marcando un hito en la evolución de los asistentes digitales.
Screenshare: Una Nueva Dimensión en la Interacción con IA
Screenshare es una función innovadora que permite a los usuarios compartir en tiempo real lo que están viendo en sus pantallas con Gemini, abriendo un abanico de posibilidades para la interacción. Imagina estar navegando por una tienda en línea en busca de unos jeans holgados. Con Screenshare, puedes mostrarle a Gemini la página del producto y preguntarle qué prendas combinarían mejor con esos jeans. En cuestión de segundos, el asistente analizará la imagen y te ofrecerá sugerencias de moda basadas en las tendencias actuales.
Esta funcionalidad no se limita al ámbito de las compras. También puede ser de gran utilidad en situaciones cotidianas, como entender información compleja en un gráfico, recibir asistencia para completar un formulario en línea, o incluso traducir un texto que aparece en una imagen en otro idioma.
Búsqueda con Video: Preguntas en Tiempo Real
Otra característica destacada es la posibilidad de hacer preguntas a partir de videos en tiempo real. Esta funcionalidad, que Google había adelantado en el Google I/O 2024, ahora se materializa con un enfoque práctico. Por ejemplo, si estás grabando un video de una receta de cocina y tienes una duda sobre algún ingrediente o procedimiento, puedes simplemente preguntar a Gemini mientras sigues grabando. El asistente responderá basándose en la información del video, ofreciendo una experiencia interactiva sin precedentes.
Esta innovación abre una amplia gama de aplicaciones, desde ayudar a estudiantes a entender conceptos en clases en línea, hasta ofrecer explicaciones sobre cómo reparar un dispositivo mientras se graba el proceso.
Disponibilidad y Acceso
Ambas funciones estarán disponibles inicialmente para los usuarios de Gemini Advanced, que forman parte del Google One AI Premium Plan en dispositivos Android. Se espera que la implementación comience a finales de este mes, con planes de extender estas capacidades a más usuarios y dispositivos en los próximos meses.
Estos avances en Gemini nos llevan a preguntarnos qué otras innovaciones traerá Google en el futuro. Con el auge de la IA multimodal, es probable que veamos más funciones que combinen texto, imagen, audio y video en un solo flujo de interacción. Además, podríamos esperar una integración más profunda con otros servicios de Google, como Google Lens, Google Search y Google Assistant.
Sin duda, estamos presenciando una evolución en la manera en que interactuamos con la tecnología. Gemini está marcando el camino hacia una IA más intuitiva, personalizada y adaptable a las necesidades del usuario, transformando por completo la forma en que accedemos y procesamos información en línea.