BERT, acronimo di “Bidirectional Encoder Representations from Transformers” è un modello di apprendimento automatico basato sui transformer utilizzato nell’elaborazione del linguaggio naturale (NLP). È stato creato e pubblicato nel 2018 da Jacob Devlin e dai suoi colleghi di Google AI.
BERT è un modello bidirezionale, il che significa che può considerare il contesto di una parola sia prima che dopo di essa. Questo lo rende in grado di comprendere meglio il significato delle parole e delle frasi nel linguaggio naturale.
Google ha iniziato a utilizzare BERT per il suo motore di ricerca nel 2019. L’utilizzo di BERT ha migliorato la capacità di Google di comprendere le intenzioni di ricerca degli utenti e di fornire risultati più pertinenti.
È diventato un componente cruciale nell’ambito della SEO (Search Engine Optimization) per diversi motivi:
- Comprendere il contesto: BERT è progettato per comprendere meglio il contesto delle parole chiave di ricerca all’interno di una frase o di una domanda. Ciò consente a Google di fornire risultati di ricerca più precisi, in quanto il motore di ricerca può comprendere meglio le intenzioni degli utenti.
- Risposte più rilevanti: Grazie a BERT, Google è in grado di presentare risultati di ricerca che corrispondono meglio alle domande degli utenti. Questo è particolarmente importante per le query complesse o le ricerche vocali, dove le persone tendono a fare domande più naturali.
- Contenuto di alta qualità: BERT premia i contenuti di alta qualità che rispondono direttamente alle domande degli utenti. Pertanto, per avere successo nella SEO, è essenziale creare contenuti informativi e ben scritti che soddisfino le esigenze degli utenti.
- Contesto e long-tail keywords: BERT ha reso più importante il contesto delle parole chiave e ha dato maggiore importanza alle parole chiave di coda lunga (long-tail keywords). Questo significa che gli specialisti di SEO devono concentrarsi sulla creazione di contenuti ricchi di informazioni e coerenti con il contesto delle ricerche degli utenti.
- Esclusione di keyword stuffing: BERT ha reso più difficile l’uso di tecniche di “keyword stuffing” (ovvero, inserire e ripetere in modo eccessivo le parole chiave) nei contenuti. I contenuti dovrebbero essere scritti in modo naturale e rispondere alle domande degli utenti.
- SEO locale: BERT ha migliorato la capacità di Google di comprendere le query di ricerca locali, offrendo risultati più pertinenti per gli utenti che cercano servizi o aziende nella loro zona.
- Rich snippet: Con BERT, i rich snippet (estratti in evidenza nei risultati di ricerca) sono diventati ancora più importanti. Google utilizza BERT per identificare il contenuto che merita di essere visualizzato nei rich snippet, il che può aumentare la visibilità del tuo sito web.
In sintesi, BERT ha reso la SEO più orientata all’utente e ha reso fondamentale creare contenuti di alta qualità, pertinenti e informativi.
Per avere successo nella SEO moderna, è importante comprendere il funzionamento di BERT e adattare le tue strategie di ottimizzazione in base a questa evoluzione dell’algoritmo di Google.