Cinque novità interessanti per la SEO per eCommerce emerse al Google I/O 2022

L’11-12 Maggio 2022 c’è stata l’ultima edizione del Google I/O 2022, la conferenza annuale della Mountain View dedicata agli sviluppatori e agli appassionati dei prodotti dell’azienda americana.

Durante queste sessioni, Google ha introdotto diverse novità che riguardano l’esperienza di ricerca e l’acquisto online. Ecco le più rilevanti:

  • Implementazione di 24 nuove lingue su Google Translate
  • Introduzione della nuova funzione “Immersive View” di Google Maps
  • Creazione di nuove funzionalità per YouTube
  • Inclusione della nuova sezione di “riepilogo automatico” in Google DOCs
  • Upgrade della “ricerca multipla” con le nuove funzionalità “near me” e “scene exploration”
  • Incorporazione del “Monk Skin Toner Scale” per rendere la ricerca di Google più inclusiva
  • Miglioramento dello spazio per le riunioni virtuali grazie all’AI
  • Introduzione del toolkit “Protected Computing” per la sicurezza informatica
  • Introduzione nuove misure sulla privacy per un maggior controllo dei dati sensibili in SERP
  • Integrazione della funzionalità “Look and Talk” di Google Assistant
  • Lancio di LaMDA2, il modello di intelligenza conversazionale più potente al mondo
  • Lancio di PaLM, un nuovo modello per l’elaborazione del linguaggio naturale
  • Impegno a utilizzare energia ‘Carbon-free’ 24 ore su 24, 7 giorni su 7, entro il 2030
  • Ripristino Google Wallet per la gestione di Carte di Credito, Carte Regalo e Pass
  • Rilascio del nuovo sistema operativo per smartphone Android 13
  • Rilascio nuovi prodotti: Pixel 6a, Pixel 7, Pixel 7 PRO, Pixel Buds PRO, Pixel Watch
  • Rilascio nuovi occhiali AR in grado di tradurre in tempo reale una conversazione

Nel video (che troverete di seguito), potete seguire i momenti più salienti della conferenza:

Ma, approfondiamo gli argomenti che possono interessare la SEO per eCommerce.

La ricerca multipla si arricchisce con “near me” ed “esplorazione della scena”

Circa un mese fa Google ci ha presentato il concetto di ricerca multipla (o multiricerca) basata sull’intelligenza artificiale.

Sfruttando le capacità di identificazione delle immagini di Google Lens, la ricerca multipla consente di aggiungere ulteriore contesto all’immagine (ovvero un testo aggiuntivo o una nota vocale), così da indirizzare la ricerca nella giusta direzione.

Multisearch near me

Per iniziare, si apre l’app Google Lens su Android o iOS, si fa tap sull’icona della fotocamera dell’obiettivo, e si importa uno degli screenshot presenti in memoria, oppure si scatta una foto dell’oggetto che interessa ricercare. Da qui è possibile aggiungere del testo per completare la domanda.

Ad esempio, se carichiamo la foto di un vestito rosso, e vogliamo vedere se esiste un vestito identico, ma in un altro colore, basterà aggiungere l’attributo “fucsia” o “blu” o “nero” in forma testuale.

Oppure possiamo scattare una foto alla nostra piantina e aggiungere il testo “come coltivare” per sapere come procedere nella cura.

Ricerca multipla

Durante l’I/O 2022 Google ha rivelato che amplierà ulteriormente la sua funzione di ricerca multipla a livello locale. Aggiungendo “near me” all’immagine caricata è possibile verificare se un determinato prodotto è presente ed acquistabile nelle vicinanze. Ad esempio caricando la foto di un piatto sarebbe possibile visualizzare un elenco di ristoranti che servono quel cibo specifico a livello locale.

Per trovare risultati locali utilizzando la ricerca multipla, Google scansiona milioni di immagini e recensioni pubblicate su pagine web e dalla comunità dei contributori di maps.

L’azienda sta anche lavorando per espandere la ricerca multipla su Google Lens con una nuova funzionalità chiamata “esplorazione della scena”, che consente di scansione più prodotti contemporaneamente, anziché singolarmente.

“L’esplorazione della scena è un potente passo avanti nella capacità dei nostri dispositivi di comprendere il mondo nel modo in cui lo facciamo noi, così puoi trovare facilmente ciò che stai cercando“, ha affermato Prabhakar Raghavan, Senior Vice President di Google.

Esplorazione della scena

La ricerca multipla locale sarà disponibile entro la fine dell’anno in inglese e possiamo aspettarci che venga implementata in più lingue dal 2023 in poi.

Per quanto riguarda l’esplorazione della scena, Google non ha fornito una data per il suo rilascio, ha solo menzionando che verrà implementata in un futuro prossimo.

Monk Skin Toner Scale: uno spettro della pelle più inclusivo, basato su 10 tonalità

Google ha annunciato che nei prossimi mesi rilascerà una scala della pelle a 10 tonalità, che potrà essere utilizzata per la ricerca e lo sviluppo dei nuovi prodotti e prenderà il nome di Monk Skin Tone (MST). La scala MST è open source e, attraverso partnership nel settore, verrà utilizzata per migliorare immagini e contenuti online come parte di uno sforzo per rendere il web più inclusivo.

Creata in collaborazione con il professore e sociologo di Harvard Dr. Ellis Monk, sostituisce uno standard imperfetto a sei colori noto come Fitzpatrick Skin Type. Perché ha solo 10 punti e non 100 o 1000? La scala MST con i suoi 10 punti ha una variazione sufficiente tale da rappresentare più persone rispetto al modello attuale, ma non aumenta la complessità, consentendo a computer e software di adattarvisi rapidamente.

Ora, quando le persone cercano query relative al make up o alla bellezza in Google Immagini, non appaiono risultati affini alle nostre caratteristiche, mentre in futuro, grazie alla scala MST sarà possibile perfezionare la ricerca grazie a dei filtri specifici impostati sui toni della pelle.

Ecco una demo:

Monk Skin Toner Scale

Google sta anche lavorando per sviluppare un modo standardizzato per etichettare i contenuti web, in base ad attributi come il tono della pelle, il colore degli occhi, la sfumatura e la consistenza dei capelli. Queste etichette consentiranno ai motori di ricerca e ad altre piattaforme di comprendere più facilmente le immagini e fornire risposte più pertinenti alle query degli utenti.

L’azienda utilizzerà la scala MST per migliorare anche Google Foto: l’azienda, infatti, sta introducendo un nuovo set di filtri Real Tone progettati per funzionare bene su tutti i toni della pelle.

Queste novità sono interessanti soprattutto per il settore della cosmesi: il nuovo approccio e la nuova scala aiuteranno a valutare se un prodotto può essere più o meno adatto ad una specifica tonalità della pelle ed il risultato sarà molto più preciso rispetto ad ora.

Look and talk, un nuovo servizio di Google Assistant

Durante il Google I/O 2022 non potevano mancare le novità per Assistant, fiore all’occhiello di Google.

Il team di Google Assistant non ha mai nascosto di avere progetti ambiziosi e così nelle scorse ore ha annunciato un nuovo modo per interagire con tale servizio, diverso dal classico “Ehi Google”.

La prima nuova funzionalità si chiamerà Look and Talk: all’utente basterà guardare lo schermo e chiedere ciò di cui ha bisogno. L’obiettivo di questa nuova funzionalità è quello di semplificare le interazioni con Google Assistant. Look and Talk sfrutta le potenzialità del machine learning e appositi algoritmi per capire quando l’utente sta guardando lo schermo con l’intenzione di chiedere qualcosa all’assistente vocale. Tale funzionalità, attualmente è disponibile solo negli Stati Uniti con Nest Hub Max, e richiede che siano attivi sia Face Match che Voice Match.

Ma nell’ottica di semplificare le richieste a Google Assistant c’è anche un’altra novità, ossia la possibilità di impostare alcune quick phrases che vengono riconosciute senza dover pronunciare “Ehi Google”.

Le frasi rapide non sono una novità assoluta e le avevamo già avvistate su Android, ma in questo caso si concentrano su funzionalità tipiche della domotica, come accendere le luci, attivare un timer e così via. In ogni caso, sarà l’utente a definire dall’app se e quali frasi rapide utilizzare.

Per esempio, gli utenti potranno al rientro a casa limitarsi a dire “Accendi le luci del corridoio” oppure “Imposta un timer di 10 minuti”.

Google Nest Hub Max

Infine, il colosso di Mountain View ha reso noto di essere al lavoro per costruire modelli linguistici più potenti e in grado di comprendere anche le sfumature del linguaggio umano (come, ad esempio, le pause, i tentennamenti, i mugugnii della voce): l’obiettivo è quello di avvicinarsi il più possibile al livello delle conversazioni naturali tra gli esseri umani.

LaMDA2: la più avanzata Ai discorsiva di Google

All’I/O 2022 Google ha annunciato anche il lancio di un nuovo modello di intelligenza artificiale, LaMDA 2, capace di migliorare la comprensione del linguaggio naturale e la capacità conversazionale dei dispositivi informatici.

LaMDA 2 è il successore dell’originale LaMDA, che sta per Language Model for Dialogue Applications, un modello linguistico basato su Trasformer, che può essere addestrato per assimilare molte parole (es. una frase o paragrafo), a captare come queste si relazionano tra loro, per poi predire quali parole sono statisticamente indicate per proseguire una frase e rendere più naturali le conversazioni tra l’intelligenza artificiale (AI) e utenti. Grazie a LaMDa2 “Puoi portare la conversazione ovunque tu voglia”, ha affermato Sundar Pichai, CEO di Google.

Sundar ha mostrato la portata di LaMDA 2 con una demo, in cui un utente chiedeva al modello AI di descrivere la parte più profonda dell’oceano. Il modello ha risposto fornendo dettagli sulla Fossa delle Marianne, sulle creature che vivono al suo interno e ha toccato argomenti, come i sottomarini e la bioluminescenza, per i quali non era stato specificamente addestrato a rispondere. In un’altra demo, LaMDA 2 ha fornito suggerimenti su come piantare un orto.

Di seguito la demo:

LaMDA2

Pichai ha detto che in futuro il sistema potrebbe essere utilizzato per migliorare le prestazioni del motore di ricerca e degli assistenti virtuali. Attualmente Google Assistant e Alexa di Amazon sono in grado di eseguire solo alcuni compiti pre-impostati, mentre Google proporrebbe un software con cui poter realmente conversare. Tuttavia, il sistema non è ancora pronto e Sundai ha ammesso che non hanno ancora ben chiaro come controllare in modo affidabile questi sistemi alimentati dall’intelligenza artificiale. Pichai ha affermato: “Anche se abbiamo migliorato la sua sicurezza, il modello potrebbe ancora generare risposte imprecise, inappropriate o offensive”. Pichai ha spiegato che Google sarà in grado di risolvere il problema se le persone che testeranno il sistema invieranno un feedback.

A tal proposito Google ha annunciato il rilascio di “AI Test Kitchen” un’app che serve per testare modelli di intelligenza artificiale, incluso LaMDA, con persone esterne all’azienda.

L’app ha tre modalità: “Imagine It”, “Talk About It” e “List It”, ognuna destinata a testare un aspetto diverso della funzionalità del sistema:

  • “Imagine It”: i tester devono parlare di un luogo reale o immaginario, che LaMDA dovrà descrivere
  • “Talk About It”: offre un prompt colloquiale con l’intenzione di testare se l’IA rimane in tema
  • “List it”: chiede ai tester di nominare un’attività o un argomento, con l’obiettivo di vedere se LaMDA è in grado di scomporlo in più punti, come fosse un elenco

AI Test Kitchen verrà lanciato negli Stati Uniti nei prossimi mesi, ma non sarà disponibile sul Play Store per essere scaricato da chiunque. Woodward, infatti ha affermato che Google contatterà accademici, ricercatori e politici per vedere se sono interessati a provarlo.

PaLM: un modello di elaborazione del linguaggio naturale sempre più evoluto

Negli ultimi anni, le grandi reti neurali addestrate per la comprensione e la generazione del linguaggio naturale hanno ottenuto risultati impressionanti in un’ampia gamma di attività. Un ulteriore passo è emerso al Google I/O 2022 dove, oltre a LaMDa2, è stato presentato anche PaLM.

Il Pathways Language Model è un modello di linguaggio ancora più evoluto, basato su 540 miliardi di parametri, capace di eseguire ragionamenti logici e altre attività linguistiche complesse che dipendono fortemente dal contesto. Ad esempio, utilizzando una tecnica chiamata “catena di pensiero”, dimostra di saper analizzare i problemi logici scindendo il ragionamento in più passaggi, e quindi simulando un processo di pensiero simile a quello dell’essere umano. Per fare ciò si basa su un apprendimento definito «a pochi scatti», che riduce il numero di esempi necessari nella formazione, con compiti specifici per adattarlo a una singola applicazione.

Questo sistema, al momento, può scalare la formazione a 6.144 chip utilizzando un database con 780 miliardi di token, che combina «un set di dati multilingue» che include libri, Wikipedia, articoli di notizie, conversazioni social media e GitHubcode, oltre ad un vocabolario che «conserva tutti gli spazi bianchi», qualcosa che la società sottolinea come particolarmente importante per la programmazione, e la divisione dei caratteri Unicode che non si trovano nel vocabolario in byte.

In questo modo, il modello è in grado distinguere causa ed effetto, comprende combinazioni concettuali in contesti appropriati, può risolvere facilmente problemi e query di matematica, spiegare delle barzellette e persino indovinare il film da una combinazione di emoji.

Ad esempio, una demo che Google fornisce si chiede a PaLM di indovinare un film basato su quattro emoji: un robot, un insetto, una pianta ed il pianeta Terra. Tra le opzioni (LA Confidential, Wall-E, León: the pro, BIG e Rush), AI sceglie quella corretta: Wall-E.

Di seguito tutte le demo presentate:

PaLM Google

Sei interessato a saperne di più? Iscriviti alla nostra prossima Masterclass SEO!

In questo articolo...