Google hat mit Multisearch ein neues Feature für
Google Lens vorgestellt. Die Funktion ermöglicht es Nutzern, gleichzeitig mit Text und Bildern nach Informationen zu suchen. Dadurch lassen sich etwa erweiterte Fragen zu einem fotografierten Objekt stellen. Multisearch arbeitet mit einer künstlichen Intelligenz, die es ermöglicht, die Welt "auf natürlichere und intuitivere Weise zu verstehen", wie Google in einem
Blog-Beitrag erklärt. Derzeit arbeitet Google laut eigener Aussage daran, die Funktion durch MUM (Multitask Unified Model) zu erweitern. MUM ist das neueste KI-Modell des Tech-Giganten, das dieser unter anderem nutzt, um Menschen in Krisenzeiten effektiver mit Informationen beliefern zu können.
Die Suche mit Multisearch funktioniert so: Man öffnet Google Lens und tippt dort zunächst auf das Kamera-Symbol. Nun sucht man ein gespeichertes Bild heraus oder macht ein Foto von einem Objekt. Nachdem man einmal nach oben gewischt hat, kann man über den Button "+ Zu Ihrer Suche hinzufügen" zusätzlichen Text für die Suche eingeben. Mit Multisearch können User also beispielsweise einen Screenshot von einem blauen Kleid machen und für die Suche den Text "grün" hinzufügen. Google sucht dann entsprechend nach dem gleichen Kleid in grüner Farbe. Genauso soll es möglich sein, für sein Esszimmer einen passenden Tisch zu finden oder Pflegeanleitungen für die eigenen Pflanzen zu erhalten.
Multisearch in Google Lens ist zunächst als Beta-Version in den USA verfügbar. Ob und wann das Feature in Europa erscheinen soll, ist derzeit noch nicht bekannt.
(vm)