Google Now ti consente di cercare cose che non puoi descrivere, a partire da un’immagine

Ti piace l’aspetto di questo vestito, ma preferisci averlo in verde. Vuoi queste scarpe, ma preferisci le ballerine ai tacchi. E se potessi avere tende con lo stesso motivo del tuo quaderno preferito? Non so come cercare su Google per queste cose, ma Belinda Zeng, Product Manager di Google Search, mi ha mostrato esempi di vita reale di ciascuno all’inizio di questa settimana e la risposta era sempre la stessa: scatta una foto, quindi digita una singola parola in Google Lente.

Oggi Google sta lanciando una versione beta solo negli Stati Uniti della funzione Google Lens Multisearch che ha preso in giro lo scorso settembre al suo evento Search On, e anche se finora ho visto solo una demo approssimativa, non dovresti aspettare molto per provalo tu stesso: è disponibile nell’app Google su iOS e Android.



Fai uno screenshot o una foto di un vestito, quindi tocca, digita “verde” e cerca un vestito simile in un colore diverso.
GIF: Google

Sebbene all’inizio si tratti principalmente di shopping – era una delle richieste più comuni – Zeng di Google e il direttore della ricerca dell’azienda, Lou Wang, suggeriscono che potrebbe fare molto di più. “Potresti immaginare di avere qualcosa di rotto davanti a te, non hai le parole per descriverlo, ma vuoi aggiustarlo… puoi semplicemente digitare ‘come riparare'”, dice Wang.

In effetti, potrebbe già funzionare con alcune bici rotte, aggiunge Zeng. Dice di aver anche imparato a modellare le unghie catturando foto di bellissime unghie su Instagram, quindi digitando la parola chiave “tutorial” per ottenere il tipo di risultati video che non apparivano automaticamente sui social media. Puoi anche scattare una foto, ad esempio, di una pianta di rosmarino e ricevere istruzioni su come prendersene cura.

gif;  base64, R0lGODlhAQABAIAAAAUEBAAAACwAAAAAAAAQABAAACAkQBADs



Belinda Zeng di Google mi ha mostrato una demo dal vivo in cui ha trovato tende abbinate a un taccuino a foglie.
GIF di Sean Hollister / The Verge

“Vogliamo aiutare le persone a capire le domande in modo naturale”, afferma Wang, spiegando come la ricerca multipla si espanderà a più video, immagini in generale e persino i tipi di risposte che potresti trovare in una tradizionale ricerca di testo di Google. .

Sembra che l’intenzione sia anche quella di mettere tutti su un piano di parità: anziché associarsi a negozi specifici o addirittura limitare i risultati dei video a YouTube di proprietà di Google, Wang afferma che porterà risultati da “qualsiasi piattaforma siamo in grado di indicizzare dal rete aperta”.

google legami

Quando Zeng ha scattato una foto del muro dietro di lei, Google ha trovato cravatte che avevano uno schema simile.
Screenshot di Sean Hollister/The Verge

Ma non funzionerà con tutto, come il tuo assistente vocale non funziona con tutto, perché ci sono infinite richieste possibili e Google sta ancora determinando l’intento. Il sistema dovrebbe prestare maggiore attenzione all’immagine o alla tua ricerca di testo se sembrano contraddirsi a vicenda? Buona domanda. Per ora, hai un po’ più di controllo: se preferisci abbinare un motivo, come il taccuino con le foglie, avvicinati ad esso in modo che Lens non possa vedere che è un taccuino . Perché ricorda, Google Lens sta cercando di riconoscere la tua immagine: se pensa che tu voglia più taccuini, potresti dover dirgli che non lo fai.

Google spera che i modelli di intelligenza artificiale possano portare a una nuova era di ricerca e ci sono grandi domande aperte se il contesto, non solo il testo, possa arrivarci. Questo esperimento sembra sufficientemente limitato (non utilizza nemmeno i suoi ultimi modelli MUM AI) da non darci la risposta. Ma sembra un trucco accurato che potrebbe andare in luoghi affascinanti se diventa una funzione di ricerca di Google di base.

Leave a Comment