Accesibilidad y Usabilidad

Google Lente escanea analiza informa

«Google Lente»: escanea, analiza, informa

Los teléfonos inteligentes aún no son más inteligentes que nosotros, pero se dirigen con seguridad hacia ese objetivo. Puedo asegurarlo: apunto la cámara a un objeto interesante, obtengo respuestas – exactamente así funciona la aplicación Google Lens, o «Google Lente». ¿Cómo funciona? ¿Qué puede hacer y dónde falla la inteligencia artificial? Y, finalmente, ¿hay algún beneficio práctico en ella? Analizo las posibilidades de Google Lens en Nokia 7.1.

Cómo las «gafas» se convirtieron en una «lente»

Si recuerdan, había una aplicación popular llamada Google Goggles con iconos de gafas estéreo. Utilizaba la cámara del teléfono inteligente para leer códigos de barras y etiquetas QR, «reconocer» lugares turísticos, determinar datos de texto y, a veces, incluso traducirlos a otros idiomas. En general, recurrió a la ayuda de algoritmos de redes neuronales mucho antes de que esto se convirtiera en mainstream.

¿Lo recuerdan? Pues la compatibilidad oficial con Goggles se suspendió hace muy poco – el 20 de agosto de 2018. Para ese momento, Google Lens ya había estado disponible en los teléfonos «Pixel» durante casi un año y en otros «Android» durante aproximadamente medio año.

Hoy en día, puedo utilizarlo como propietario de prácticamente cualquier dispositivo moderno. En Android, la aplicación está disponible junto con «Google Asistente» o por separado. Algunos vendedores integraron Lens directamente en las funciones de la cámara – similar a lo que sucede en los «Pixel».

Del mismo modo, esto se ha implementado en los dispositivos Nokia actuales que funcionan con Android One, lo que los hace programáticamente cercanos a los dispositivos de Google.

En el Asistente de Google, el icono de «Lens» se encuentra en la esquina inferior derecha (en versiones para otros dispositivos puede estar a la izquierda). En la aplicación «Cámara» de Nokia 7.1, el icono de «Lens» es el segundo desde la izquierda en la esquina superior.

Principio de funcionamiento y posibilidades de «Google Lens»

La tarea principal de la aplicación es determinar el objeto en la pantalla de vista previa, proporcionar información y ofrecer opciones de acción según el resultado. Para lograr esto, se utilizan principalmente tecnologías de aprendizaje automático profundo y algoritmos de redes neuronales. Lo que se llama «inteligencia artificial en el teléfono inteligente» en el lenguaje de marketing y por lo que ya se ha estado trabajando activamente durante dos años en el «hardware» móvil – por ejemplo, CPU con procesadores de redes neuronales. Y los usuarios de Google y el propio buscador participan en la creación de la base de datos. Cada vez que alguien corrige la información sobre un objeto, el sistema mejora.

Es probable que el próximo chip Snapdragon 855 (8150) también esté equipado con un procesador de redes neuronales propio.

Todo lo que puedo determinar, el algoritmo lo marca con círculos – lo que significa que la información está disponible para el usuario. La aplicación clasifica cada objeto en una categoría u otra: planta o animal, teléfono inteligente! u ordenador portátil, texto o imagen, portada de un libro o disco, y así sucesivamente. Luego ofrece varios escenarios para trabajar con la imagen.

El texto en la imagen se transforma en datos simbólicos dentro del smartphone. La aplicación convierte automáticamente el texto y me permite seleccionar, copiar, buscar en Google o traducir de un idioma extranjero a mi idioma nativo.

Las portadas, letreros y logotipos activan tarjetas de información correspondientes: título del juego, autor y título del libro, tipo de establecimiento (cadena de tiendas o, por ejemplo, bar) y así sucesivamente.

Las plantas y animales se reconocen con precisión hasta el género o raza. Si no estoy seguro, puedo determinar fácilmente si lo que tengo delante es un arbusto de mirra o un gato Maine Coon.

La ropa, la vajilla, los elementos de decoración y otros objetos también los identifican los algoritmos y me proporcionan información general sobre el tipo de objeto o me ofrecen comprar el mismo o algo muy parecido en una tienda en línea.

Los códigos de barras y QR se leen estándarmente con la aplicación y revelan los datos cifrados en ellos.

En otras palabras, puedo considerar que «Google Lens» es una aplicación de realidad aumentada útil que me permite obtener rápidamente la información necesaria sobre lo que me rodea. Suena bien en teoría, pero ¿cómo funciona en la práctica? Tomo mi smartphone Nokia 7.1 y salgo a probar.

¿Cómo se desempeña la aplicación en la práctica?

Antes de responder a esta pregunta, debo aclarar: los servicios inteligentes de Google, «Asistente» y «Lente», solo este año han comenzado a entender el idioma ruso.

Es razonable suponer que Google Lens con contenido en ruso no funcionará con la misma precisión que con inglés. Sin embargo, como nos interesa principalmente nuestro idioma nativo, probaré la aplicación con él. Y, por supuesto, repasaré cada uno de los escenarios mencionados anteriormente.

Texto

Independientemente del idioma, la aplicación determina el texto con alta precisión, puedo decir que es ejemplar. Solo ocasionalmente puede equivocarse con la mayúscula, viendo letras minúsculas falsas entre las mayúsculas. Sin salir de la aplicación, puedo seleccionar el fragmento necesario y el menú contextual me ofrece buscarlo en Google, copiarlo o traducirlo. En este último caso, se abre automáticamente Google Traductor. Hay una historia aparte con las tarjetas de visita y los currículums, el algoritmo los determina y ofrece cargar los datos en la lista de contactos. Incluso con campos como «Nombre y Apellidos», «teléfono» y «correo electrónico» llenos automáticamente.

Portadas, letreros y logotipos

Los logotipos con características y rasgos reconocibles los determina la aplicación con bastante precisión: títulos de juegos conocidos, libros con portadas únicas, letreros de bares, etc. Pero cuando se trata de series, surgen dificultades. El logotipo de la reciente RDR II se leyó inicialmente como simplemente «Red Dead Redemption», pero en la segunda vez el algoritmo fue más preciso. Los diferentes libros de una serie se determinaron con errores o la aplicación no entendía qué estaba viendo, como sucedió con una edición de Edgar Allan Poe.

Plantas y animales

Como no trajeron gatitos a la redacción junto con el Nokia 7.1 de prueba, lamentablemente, tuve que tomar fotos de internet para probar. Con una fotografía bastante complicada de un gato Maine Coon, la aplicación se las arregló con confianza: identificó tanto al gato como a su raza. Sin embargo, con las plantas no fue tan fácil – aquí el algoritmo a menudo falla y proporciona un género de planta incorrecto. Pero con la begonia de la redacción, en general, se las arregló.

Diferentes objetos

Como se dice, cuantos objetos, tantas versiones. Pero en este caso, el comportamiento de la aplicación se puede dividir en tres escenarios. En el primero, entiende con precisión lo que ve y sugiere buscar análogos en Google o incluso comprarlos en una tienda – por ejemplo, una taza, un teléfono inteligente condicional, un televisor, un abrigo o ropa. En el segundo, se activa una especie de cadena asociativa: le muestro al «Objetivo» un controlador DualShock 4, y veo que sugiere buscar un PlayStation 4 completo. Finalmente, algunos objetos la aplicación puede no procesar en absoluto – suministros de oficina, paquetes, un sofá, una mesa, etc.

Códigos de barras y códigos QR

Los datos cifrados se leen sin errores. Pero con el enfoque hay problemas, especialmente con iluminación tenue y si el código es tan pequeño que la cámara tiene dificultades para enfocarlo.

Las preguntas no solo se refieren a las condiciones circundantes — por alguna razón, los algoritmos de «Google Objetivo» tienen dificultades para capturar el enfoque correcto, y no se puede establecer manualmente. Sin embargo, si todo sale bien, la información se recibe como corresponde.

Conclusión

¿Por qué hemos contado todo esto? La cosa es que «Google Objetivo» es una aplicación que es difícil de evaluar de inmediato. A lo largo de los años, la Corporación del Bien ha demostrado que los algoritmos de redes neuronales se vuelven más inteligentes con el tiempo. Ya hoy en día, la aplicación es capaz de facilitar significativamente la vida del usuario, que solo necesita apuntar con su teléfono inteligente, tocar un círculo y recibir la información necesaria instantáneamente. Y lo que sucederá en el futuro es difícil de imaginar.

Descubre el poder de Google Lente: análisis y beneficios
Descubre el poder de Google Lente: análisis y beneficios

Fernando

¡Hola a todos! Soy Fernando, un apasionado de la tecnología y un entusiasta de Android desde hace años. Con una amplia experiencia en el mundo de los dispositivos móviles, estoy aquí para compartir mis conocimientos y consejos sobre cómo sacar el máximo partido a tu dispositivo Android. ¡Únete a mí en este emocionante viaje hacia la optimización y la personalización de tu experiencia digital!

Publicaciones relacionadas

Botón volver arriba