Skip to content Skip to footer

Try On de Google podría cambiar la forma en que compras ropa en cuerda


Nuevas experiencias de búsqueda con IA y Lens

Google es consciente de que las personas están usando IA generativa e imágenes para sus búsquedas. Por ello anunció nuevas características para Lens, su utensilio de búsqueda a través de fotografías, como Multisearch, la cual permitirá a los usuarios tomar una foto de un vestido y combinarlo con palabras para obtener resultados más exactos.

Asimismo, agregó la función Near Me para capturar alimentos y pedir que recomiende restaurantes cercanos en donde podrían traicionar ese producto. Google detalló que incluso se puede usar para otro tipo de productos, pero los resultados pueden no ser tan precisos como con la comida.

“Doctor Google” y Bard, asistentes con más capacidades

Otra de las innovaciones que integrará Lens es la capacidad de tomar imágenes de la piel para determinar si el legatario tiene algún tipo de enfermedad o padecimiento comparándola con la saco de datos que tiene para que la persona pueda aparecer con un experto. No obstante, esta función sólo está apto en Estados Unidos.

Por otra parte, Bard incluso anunció una integración con Lens, cuyo objetivo es integrar imágenes en las búsquedas generativas. Por ejemplo, el legatario podrá subir una imagen de un monumento y Bard le contestará el empleo donde se encuentra.

Adicionalmente, el chatbot tendrá la capacidad de surtir una conversación con el legatario, le dirá historia acerca de ese sitio, así como actividades que pueda hacer o cualquier otra petición que la persona le pida. Este sujeto estará apto en próximas semanas en los países donde se puede usar Bard.

Respecto a viajes, Google dijo que está probando una nueva función en su Laboratorio de Búsquedas (su software de pruebas anticipadas al cual



Creditos a Fernando Guarneros Olmos

Fuente

Leave a comment

0.0/5