Home » News » Computer stanno imparando a leggere

Computer stanno imparando a leggere

Una recente notizia ha scombussolato il settore della SEO, ossia della Search Engine Optimization, in italiano ottimizzazione dei motori di ricerca. Si tratta delle tecniche utilizzate dagli esperti per posizionare i siti web nelle prime posizioni della SERP (Search Engine Result Page), ossia la pagina dei risultati di un motore di ricerca. Con oltre il 95% del mercato delle ricerche nelle proprie mani, oramai parlare di motori di ricerca è parlare sostanzialmente di Google.

Google Search è sicuramente il servizio più famoso tra i tanti offerti dall’azienda di Mountain View. Negli anni Google ha rilasciato tanti aggiornamenti per l’algoritmo che gestisce il motore di ricerca. Si è passati da un algoritmo abbastanza semplice, fino a un motore di ricerca capace di rilevare le differenze semantiche tra una parola e l’altra. E ora Google Search è pronto a fare un ulteriore passo in avanti. A fine ottobre 2019, infatti, Google ha annunciato di aver aggiornato i suoi algoritmi introducendo “BERT”, una nuova tecnica di Natural Language Processing (NLP) basata sulle reti neurali. Detta in parole molto semplici, BERT rende possibile a Google capire meglio cosa sta cercando l’utente, in modo da offrire una risposta migliore. BERT viene applicato a circa il 10% delle ricerche attuali, solo in lingua inglese. In futuro verrà applicato anche ad altri linguaggi e, molto probabilmente, ad una percentuale maggiore di ricerche. Ma BERT, in realtà, è una notizia non solo per chi fa SEO. Per capire il perché, però, dobbiamo prima scoprire come funziona BERT.

Cosa è Google BERT e come funziona.

L’acronimo BERT sta per “Bidirectional Encoder Representations from Transformers”. Si tratta di una evoluzione “bidirezionale” del metodo di comprensione del linguaggio “Transformers”, che a sua volta è un metodo che prende in considerazione non più i singoli accoppiamenti di parole, ma l’intera frase.

Prima di Transformers gli algoritmi di apprendimento del linguaggio naturale (cioè di come parlano gli umani realmente) si limitavano ad analizzare le parole in relazione a quella precedente e successiva. Così, per fare un esempio, potevano capire la differenza tra due espressioni molto simili come “oro bianco” e “oro nero”: nel primo caso si tratta di un metallo, nel secondo di petrolio. Transformers, invece, è più complesso perché va più a fondo nella scansione della frase oltre che dei singoli accoppiamenti di parole. BERT è ancora più evoluto: fa lo stesso lavoro di Transformers, ma leggendo la frase sia da sinistra a destra che da destra verso sinistra. In questo modo può capire che le parole “dalle” e “alle” hanno un senso completamente diverso in “lavorare dalle 9 alle 17 ininterrottamente” e in “le briciole dalle da mangiare alle galline”.

BERT capisce realmente cosa diciamo? I test GLUE

Fonte: Fastweb Digital Magazine

Archivi