Gemini es el eje de I/O 2024. La inteligencia artificial de Google se ha integrado en todos sus servicios y ha presentado una versión que duplica la capacidad de Gemini 1.5 Pro. La cereza del pastel es una versión más robusta en Android impulsada por Gemini Nano y la aplicación oficial.
Sameer Samat, presidente del ecosistema de Android, mencionó que la empresa se ha embarcado en un viaje de varios años para reimaginar Android con la IA como núcleo. El primer paso consiste en tres características que se integrarán en el sistema operativo para hacerlo más inteligente. La primera es Circle to Search, una función disponible en los Pixel y Samsung Galaxy que permite buscar en tiempo real lo que visualizas en pantalla.
Esta característica ya cuenta con traducción a pantalla completa y ahora se añadirá una función que ayudará con las tareas de matemáticas y de física. Esta novedad está pensada para estudiantes y consiste en analizar y resolver problemas aún más complejos que involucran fórmulas simbólicas, diagramas, gráficos y más. Google prometió que duplicará la disponibilidad a más de 200 millones de dispositivos a fin de año.
Esto es posible gracias a LearnLM, una familia de modelos de inteligencia artificial centrada en el aprendizaje. LearnLM está diseñada para integrar la investigación en ciencias del aprendizaje con los productos de Google. Según la empresa, este modelo tiene como objetivo hacer que las experiencias de aprendizaje sean más útiles y atractivas.
Gemini reemplazará al Asistente de Google en Android
Otro eje de la transformación de Android es convertir a Gemini en asistente por defecto. El relevo del Asistente de Google estaba cantado desde que la IA apareció en escena y se volverá una realidad en algunos meses. Samat anunció que los usuarios podrán configurar el móvil para utilizar a Gemini como su asistente personal para acceder a él en todo momento.
Gemini se mostrará por encima de las aplicaciones, permitiendo interactuar con ellas y arrastrar el contenido generado. La interfaz de Gemini se activará de un modo parecido al Asistente de Google — presionando la parte baja de la pantalla — y no tendrás que cambiarte de aplicación para utilizarla.
En una de las demostraciones, David Burke, jefe de ingeniería en Google, mostró cómo se pueden generar imágenes y enviarlas a través de Mensajes. También será posible preguntarle a Gemini por un video de YouTube o pedirle que analice un PDF para encontrar información específica.
Estas capacidades se habilitarán en los próximos meses en Gemini para Android, por lo que los usuarios podrán utilizarla en dispositivos compatibles.
Gemini Nano se volverá más poderoso en su próxima actualización
El tercer pilar de la transformación tiene que ver con Gemini Nano, el modelo fundacional que permite ejecutar tareas de IA directamente en el dispositivo. Google tiene planes de potenciar sus capacidades y anunció que la próxima versión de Nano será multimodal. Esto significa que tu móvil comprenderá texto, imágenes, video y sonidos.
Un ejemplo de su integración será en TalkBack, una función que brinda descripciones de una imagen a personas con debilidad visual. Debido a que muchas imágenes de la web no cuentan con un atributo que las describa, la IA de Gemini Nano hará este trabajo, incluso cuando no tengas conexión a internet.
La capacidad multimodal llegará a Gemini Nano a finales de este año y debutará en el Pixel 9 y los dispositivos que se lancen a futuro.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://hipertextual.com/2024/05/plan-google-para-transformar-android-con-ia-gemini