Ottimizzazione per i motori di ricerca

Da Wikipedia, l'enciclopedia libera.
Jump to navigation Jump to search

Con il termine ottimizzazione per i motori di ricerca (in lingua inglese Search Engine Optimization, in acronimo SEO) si intendono tutte quelle attività volte a migliorare la scansione, l'indicizzazione ed il posizionamento di un'informazione o contenuto presente in un sito web, da parte dei crawler (detti anche bot) dei motori di ricerca (quali ad es. Google, Yahoo!, Bing, Yandex, Baidu ecc.) al fine di migliorare (o mantenere) il posizionamento nelle SERP (pagine di risposta alle interrogazioni degli utenti del web).

Descrizione generale[modifica | modifica wikitesto]

Grazie alle tecniche di ottimizzazione SEO è possibile migliorare il posizionamento (ranking) di un sito web sui motori di ricerca e, conseguentemente, ottenere un aumento del volume di traffico organico[1]. L'ottimizzazione SEO può essere affiancata o integrata dalla differenziazione nei motori di ricerca, operazione che punta a far aumentare il traffico diretto. I risultati organici più in alto nella SERP hanno maggiori probabilità di venire visualizzati e quindi di essere eventualmente cliccati in una percentuale maggiore dagli utenti, rispetto a quelli visualizzati nella parte centrale e bassa della pagina.

Le attività SEO sono molteplici e possono essere suddivise in on page (cioè sulla pagina web) ed off page (attività svolte su elementi esterni al sito) e si basano su una lunga lista di segnali di ranking, chiamati «Fattori SEO».

Tra le attività di SEO si distinguono l'ottimizzazione:

  • ottimizzazione del server web
  • ottimizzazione di JavaScript e CSS
  • ottimizzazione stringhe di codice e convalida W3C
  • della struttura del sito e del menu di navigazione;
  • dei contenuti testuali e delle immagini presenti nelle pagine;
  • dei link interni al sito;
  • dell'usabilità del sito;
  • dell'accessibilità delle informazioni da parte dei crawler dei motori di ricerca;
  • del codice sorgente e dei dati strutturati;
  • dei backlink (link provenienti da siti esterni);
  • immagini e video.

L'attività di ottimizzazione per i motori di ricerca comprende varie operazioni tecniche che vengono effettuate sia sul codice HTML che sui contenuti delle pagine web del sito, nonché sulla rete ipertestuale complessiva del dominio Web presente negli archivi dei motori di ricerca. La qualità e la quantità dei collegamenti ipertestuali di altri domini Web, che puntano ad un determinato dominio, sono infatti determinanti per il posizionamento del dominio considerato. Indispensabile è quindi, anche l'attività esterna al sito, solitamente effettuata con tecniche di link building (diffuso è il guest posting).

L'ottimizzazione per i motori di ricerca (SEO) si distingue dal Search Engine Marketing (SEM) in quanto ha l'obiettivo del posizionamento nelle SERP organiche e non negli spazi allocati per risultati Pay per click (campagne pubblicitarie a pagamento). Inoltre, le attività SEO offrono risultati nel breve, medio e lungo periodo in base alla difficoltà di posizionamento derivante dal numero di competitor; mentre gli effetti del Pay per click sono istantanei.

La figura professionale specializzata nell'ottimizzazione per i motori di ricerca è il SEO (search engine optimizer, ottimizzatore per i motori di ricerca - che ha il medesimo acronimo dell'attività che svolge). Il SEO lavora in stretto contatto con le altre figure legate al mondo del web marketing, come ad esempio sviluppatori, grafici, esperti di marketing nelle reti sociali, etc., professionalità che difficilmente possono essere rivestite da una sola persona.

L'ottimizzazione per Google[modifica | modifica wikitesto]

Nei primi anni Duemila il motore di ricerca Google ha introdotto un elemento di novità nell'approccio al problema dell'indicizzazione del web, il PageRank, un algoritmo di valutazione della rilevanza di una pagina basato su concetti matematici. Nel decennio successivo questo valore ha perso progressivamente importanza. Oggi è considerato uno dei tanti parametri di cui tener conto (anche se non il più importante). Robert Metcalfe (inventore di Ethernet), ha definito tale algoritmo come "l'effetto della rete" (network effect): una rete è tanto più utile quanto più elevato è il numero dei suoi utenti. Google indicizza una pagina basandosi sui suoi contenuti e sui link che puntano ad essa. Non solo: utilizza anche 200 valori segreti (o almeno lo sono la maggior parte di essi), che interagiscono mediante l'algoritmo di Google per definire la qualità e vari altri fattori contenuti nei siti (e nei blog, oltre che nei servizi utili nel web). Nelle varie informazioni che è necessario conoscere per arrivare alle vette dell'ottimizzazione per Google è necessario che il proprio sito possa essere SEO friendly, ovvero facilitato per la lettura dei bot dei motori di ricerca. Ciò avviene prestando particolare cura a molti degli elementi che si trovano in ogni pagina di un sito web, e di ogni documento caricato sul web. Il concetto iniziale di PageRank di Google è stato con il tempo sostituito dal TrustRank, che è un indice più complesso, benché non esista ad oggi un modo per poterlo misurare in correlazione ad un sito web.

Fattori di ottimizzazione[modifica | modifica wikitesto]

Fattori a livello di pagina (Fattori on page)[modifica | modifica wikitesto]

Per quanto riguarda le pagine, parte dell'ottimizzazione consiste nel fare in modo che:

  • il codice delle pagine sia formalmente valido[2]. Può essere utile confrontarsi con le specifiche WCAG[3] per rendere i contenuti meglio "accessibili" anche per i crawler;
  • i Tag HTML (ad esempio: tag title, meta description, alt tag, headings) siano il più possibile attinenti ai contenuti della pagina (l'ideale è fare uso di chiavi di ricerca LSI, Latent Semantic Indexing); Nel 2009 Google, Bing e Yahoo hanno annunciato di non utilizzare più il meta tag "keyword" per il posizionamento dei siti web[4][5].
    Confronto tra un testo come immagine (JPG, PNG, GIF...) e un testo scritto direttamente in una pagina HTML o PDF
    Confronto tra un testo come immagine (JPG, PNG, GIF...) e un testo scritto direttamente in una pagina HTML o PDF (evidenziabile e copiabile dall'utente). I due testi non saranno indicizzati nello stesso modo anche se agli occhi dell'utente sono uguali. I motori di ricerca e gli screen readers leggeranno solo il tag ALT e il nome dell'immagine ("nome.jpg") ma non il testo contenuto al suo interno. Il testo dattiloscritto nella pagina sarà invece letto integralmente dai motori e dagli screen readers.
    i Tag HTML rendano le immagini posizionate e ricercabili dai crawler dei motori di ricerca. La ricerca per immagini è il secondo tipo di ricerca più effettuato su Google. Per fare in modo che ciò accada l'immagine dovrà avere una url che descrive il contenuto dell'immagine stessa (es: /images/mobile_rosso.jpg) e un Alt tag di descrizione (quello che appare come descrittivo dell'immagine). Altre informazioni possono essere introdotte in Title ed in Caption (una tabella che ha lo scopo di descrivere l'immagine e viene utilizzata dai principali cms). Le principali web app specifiche sulle immagini sono in grado di configurare questi campi utilizzando i relativi campi EXIF;
  • i tempi di caricamento di una pagina siano buoni. I motori di ricerca danno molta importanza a questo segnale, per cui è una delle priorità di un buon SEO, che apporterà una serie di modifiche al codice (riduzione linee di codice. css e. js in particolare), implementerà sistemi di caching, strutturerà una Content Delivery Network (CDN), comprimerà le immagini;
  • i parametri non siano indicizzati (es. un'eventuale applicazione lato server tramite l'inserimento di un'interrogazione (query) nell'URL della pagina, ossia la presenza di coppie parametro=valore dopo un punto di domanda, dopo l'indirizzo della pagina (http://www.sito.it/percorso/pagina?parametro=valore). Alcuni motori di ricerca scaricheranno e indicizzeranno solo la pagina base, senza tener conto della query. Inoltre, se l'interrogazione contiene informazioni specifiche sulla sessione (per esempio Session ID, che cambiano per ogni visitatore) nemmeno Google ottiene un URL univoco per la pagina, e può trarne le più disparate conclusioni negative. Per questo tipo di informazioni è opportuno usare i cookie[6];
  • i redirect non HTTP siano inviati attraverso tag <meta http-equiv="refresh"> perché non è detto che il motore di ricerca li segua. È anche diffusa l'idea che la loro presenza possa penalizzare il Link Analysis Ranking di una pagina[7]. Attuare invece ogni redirezione con una risposta HTTP di reindirizzamento (codici 3xx); inoltre, ogni redirezione effettuata tramite tag <meta http-equiv="refresh"> è contraria ai paragrafi 7.4 e 7.5 delle WCAG 1.0[3];
  • i contenuti presentati all'utente e ai crawler non siano differenziati (Cloaking) tentando di riconoscerne la stringa di User agent o l'IP del bot che scansiona le nostre pagine. È una pratica potenzialmente dannosa che espone (in casi estremi) al rischio concreto di cancellazione dagli indici dei motori e nella maggior parte degli altri casi ad una mancata valorizzazione delle pagine interne di un sito; qualora questo non fosse possibile per ragioni tecniche (per esempio fornire dei contenuti statici di un sito realizzato interamente in Flash), ma fosse necessario implementare una staticizzazione dei contenuti, è preferibile gestirla client-side, mediante l'uso di cookie di sessione;
  • i file robots.txt e sitemap.xml siano implementati correttamente, al fine di indicare ai crawler dei motori di ricerca quali contenuti indicizzare e quali escludere dal processo di indicizzazione;
  • i contenuti non siano duplicati. Matt Cutts (ex-capo del Webspam team di Google) afferma che il 25-30% di tutti i contenuti presenti sul web sono duplicati[8]. Come lui stesso ha dichiarato, l'attività di duplicazione dei contenuti può essere un fattore penalizzante, ma in realtà oggi non esiste nessun algoritmo che genera penalizzazioni per questo genere di attività. L'attività del SEO è quella di prodigarsi per rimuoverli oppure per eliminare gli errori nel codice che li producono (esempio: errori nella paginazione o in variabili dinamiche). Una strategia per evitare i contenuti duplicati nel proprio sito è quella di inserire il tag canonical all'interno della pagina;
  • i contenuti redatti siano di qualità: scrivere un testo scorrevole nella lettura e grammaticalmente corretto, dosando al punto giusto le parole chiave principali, utilizzando anche dei sinonimi. Anche il tempo di lettura trascorso su un contenuto da parte di un utente è un fattore di posizionamento, quindi i contenuti devono essere di qualità e di valore[9];
  • il sito sia configurato per i dispositivi mobili al fine di consentirne una corretta indicizzazione (mobile first index);
  • i dati strutturati siano inseriti nel sito (ovvero meta-informazioni inserite nel codice che aiutano i motori di ricerca a comprendere i contenuti delle pagine).

Fattori a livello di dominio[modifica | modifica wikitesto]

Riguardo al dominio i fattori più rilevanti sono:

Fattori social[modifica | modifica wikitesto]

  • Numero di like o follower sui social network (esterni ai motori di ricerca): non è chiaro se questo dato sia o meno un ranking signal. C'è chi avalla la tesi di Matt Cutts[10], ma il dibattito è aperto.
  • Condivisioni e tweet: molti esperti SEO concordano sul fatto che essi influenzino gli algoritmi dei motori di ricerca.

Fattori a livello di interazione dell'utente[modifica | modifica wikitesto]

  • Click-through rate organico (CTR);
  • Frequenza di rimbalzo (Bounce Rate);
  • Dwell Time: è un valore che mette a sistema la durata di sessione, frequenza di rimbalzo e CTR.

Fattori a livello di backlink "dofollow"[modifica | modifica wikitesto]

I backlink sono sempre stati uno degli elementi più rilevanti a livello SEO. Spesso hanno portato ad incidere notevolmente sul posizionamento:

  • Numero di backlink "dofollow": fattore molto determinante, preferibilmente provenienti da siti con indirizzi IP differenti e contestuali (contenuti semanticamente coerenti);
  • Anchor text dei backlink: viene utilizzato per determinare la pertinenza del link rispetto all'argomento trattato. Non è un caso, a tale riguardo, che il testo delle ancore spesso coincida con le ricerche che si intende ottimizzare, specie nelle campagne di link building più "spinte" (e, di conseguenza, più rischiose in termini di penalità).
  • Numero di backlink provenienti da fonti autorevoli, come testate giornalistiche, siti web famosi, ufficiali, governativi, ecc.
  • Qualità dei backlink. Quando un backlink proviene da un sito considerato poco autorevole può avere effetti negativi sull'indicizzazione. Utilizzare gli strumenti di "disavow" per rimuovere gli effetti negativi di questi link.
  • Numero di link esterni della pagina di provenienza di un backlink: più la pagina ha collegamenti esterni e meno ognuno di essi è importante poiché la Link Juice si distribuisce sulla totalità dei link esterni.

I link "dofollow" sono così rappresentati in codice HTML:

<a href="https://esempio.it">Testo del Link</a>

Si tratta della normale formattazione che crea un link ipertestuale senza specificare l'attributo rel, farlo sarebbe superfluo e scorretto visto che un attributo "dofollow" (concretamente rel="dofollow") non esiste, per questo "dofollow" è sempre virgolettato in questo testo.

Fattori a livello di backlink "nofollow"[modifica | modifica wikitesto]

Sull'importanza dell'utilizzo dei backlink nofollow gli specialisti SEO hanno opinioni molto differenti tra loro.

Google afferma che in genere non vengono seguiti[11]. Con l'ultimo aggiornamento di Google Penguin fu evidenziato da molti un potenziale rischio nell'utilizzo dei backlink nofollow. È possibile comunque affermare che i Link nofollow non hanno generalmente alcun impatto sulla SERP e non contano ai fini del PageRank. Tale fatto è solo un singolo aspetto, tuttavia, che non può e non deve considerare l'opportunità di acquisire link anche di tipo nofollow se, ad esempio, provengono da siti molto autorevoli o possono portare molto traffico al sito destinazione.


I link nofollow sono così rappresentati in codice HTML:

<a href="https://esempio.it" rel="nofollow">Testo del link</a>

Ottimizzazione per file PDF[modifica | modifica wikitesto]

L'ottimizzazione dei documenti in formato PDF prevede alcuni interventi al momento della creazione del file.

Gli elementi più importanti da compilare correttamente ai fini del posizionamento sulle SERP di un documento PDF sono:

  • il nome del file, se è composto da più chiavi utilizzare il trattino per separarle; ad esempio, se il file PDF parla di animali domestici utilizzeremo il seguente nome file: animali-domestici.pdf
  • le proprietà interne al documento: cliccare su "File" – "Proprietà" e compilare necessariamente "Titolo", "Oggetto" (che sarebbe la description), "Autore" (potete mettere il nome del sito) e "Parole chiave".
  • Il titolo all'interno del documento: se il documento non dovesse avere un titolo, sarà Google ad attribuirne uno. Meglio, quindi, indicare il titolo che si vuole dare al documento utilizzando per il font: Verdana, Italico e Centrato.

Per quanto riguarda l'inserimento di un link cliccabile all'interno delle pagine, si noti che un file pdf viene letto da Google come una sorta di pagina web a sé stante e risulta, pertanto, un backlink al proprio sito. L'importante è tematizzare il link, cioè inserire l'esatta pagina di riferimento. Per esempio, se abbiamo un PDF che parla di animali domestici su un portale di animali, sarà meglio inserire il link alla pagina che parla esattamente di quelli domestici.

Tecniche penalizzate dai motori di ricerca[modifica | modifica wikitesto]

Alcune tecniche volte a migliorare in poco tempo l'indicizzazione del proprio sito per guadagnare posizioni nella SERP sono penalizzate dalla maggior parte dei motori di ricerca. Nel gergo informatico chi usa queste tecniche viene chiamato Black Hat SEO[12][13][14].

Contenuti nascosti all'utente ma indicizzabili dai motori di ricerca[modifica | modifica wikitesto]

  • Contenuti dello stesso colore dello sfondo
  • Contenuti nascosti con il codice CSS e HTML
h1 {
  display: none;
}
h1 {
  visibility: hidden;
}
h1 {
    overflow: hidden;
}
  • Contenuti inseriti fuori dalla visuale della pagina attraverso il codice CSS
    Contenuto HTML nascosto
    A sinistra una pagina web visibile su qualsiasi dispositivo. A destra un contenuto che si trova al di fuori della visuale del dispositivo ma presente nel codice HTML e quindi indicizzabile dai motori di ricerca.

Pagine doorway o gateway[modifica | modifica wikitesto]

Non hanno un vero contenuto, ma sono create per essere indicizzate dai motori e “spingere” altre pagine interne del sito stesso o di un altro sito.

Cloaking[modifica | modifica wikitesto]

Una pagina creata appositamente per i motori di ricerca diversa da quella che viene vista dagli utenti.

Keyword stuffing[modifica | modifica wikitesto]

Ripetere in un testo la keyword da ottimizzare fino all'esasperazione.

Desert scraping[modifica | modifica wikitesto]

Tecnica che consiste nel riutilizzare contenuti non più indicizzati dai motori (pagine di domini scaduti o contenuti di siti che sono stati cambiati).

Content Spam[modifica | modifica wikitesto]

Utilizzare software automatici di scambio link (link farm) e commentare sui social network, su siti web e blog in modo esasperato inserendo il link del proprio sito web. Oppure inserire molti link del proprio sito all'interno del codice di template e plugin dei CMS Open Source.

Utilizzo di più tag H1 nella stessa pagina[modifica | modifica wikitesto]

L'utilizzo di più tag H1 su una pagina è una tattica ampiamente diffusa per influenzare la SEO.

Utilizzo di meta tag diversi dal contenuto dell'immagine[modifica | modifica wikitesto]

Quando l'utente cerca immagini attraverso servizi come Google Immagini può imbattersi in immagini fuori luogo rispetto alla sua ricerca. Spesso succede perché volutamente i Black Hat Seo inseriscono nei metadati del tag IMAGE (ossia i tag ALT, TITLE, LONGDESC e IMAGE CAPTION) una descrizione diversa dal contenuto dell'immagine per fare in modo che l'utente visualizzi un prodotto o servizio anche se ha cercato tutt'altro.

Bait and Switch e Clickbait[modifica | modifica wikitesto]

Scrivere una pagina per i motori di ricerca con una serie di parole chiave e, dopo aver ottenuto l'indicizzazione da parte dei motori di ricerca, l'autore la modifica con un altro servizio o prodotto. Quando gli utenti accedono al sito vedono una pagina che tratta un argomento completamente diverso rispetto a ciò che appare nella SERP e quindi a ciò che hanno cercato. Oppure visitano il sito e scoprono che i prodotti pubblicizzati non sono disponibili, oppure sono spinti a considerare prodotti simili ma di prezzo più alto.

Article Spinning[modifica | modifica wikitesto]

Una tecnica che consiste nel creare quello che sembra essere un nuovo contenuto da ciò che già esiste cambiando alcune parole e frasi.

Content Scraping e Mirroring[modifica | modifica wikitesto]

Rubare contenuti da altri siti web ben indicizzati e pubblicarli sul proprio sito. Se viene copiato un intero sito web, il sito copiato viene chiamato "sito mirror".

Web Rings[modifica | modifica wikitesto]

Creare più siti web molto simili e collegati tra loro in una rete circolare per ottenere traffico da siti web correlati.

Shady Redirects[modifica | modifica wikitesto]

L'utente clicca su un link che parla di un certo argomento e uno script di codice lo re-indirizza in un altro contenuto non pertinente. Succede spesso nei portali di streaming quando si clicca il tasto play.

Parasite Hosting[modifica | modifica wikitesto]

Un modo illegale per ottenere l'accesso all'amministrazione di un sito web, creare una pagina web su di esso e riempirla di parole chiave e collegamenti che puntano alla propria pagina commerciale e sfruttare l'indicizzazione già avvenuta del dominio principale. Di solito ciò avviene senza la conoscenza e il consenso della persona che possiede il dominio autorevole.

Google Bombing[modifica | modifica wikitesto]

È un modo per influenzare il ranking di una pagina web aumentando artificialmente il numero di collegamenti che puntano ad essa e gli anchor text utilizzati. Viene manipolato l'algoritmo di Google "forzando" il ranking di una pagina per una parola chiave completamente diversa da quella originale della pagina. Ciò accade perché è lo stesso testo di ancoraggio utilizzato per le pagine che si collegano a quella in particolare.

Falsificazione dei Rich Snippet[modifica | modifica wikitesto]

Lo snippet è ciò che viene visualizzato come risultato della SERP: è composto dal titolo, dalla descrizione e dall’URL del sito. Il Rich Snippet è uno snippet arricchito da stelle (valutazioni/recensioni), prezzi, video e nominativo dell’autore che ha realizzato tale contenuto. Dal momento che ciò è utile alla SEO, alcuni Black Hat falsificano i Rich Snippet per aumentare scorrettamente l'indicizzazione del proprio sito web.

Query automatizzate[modifica | modifica wikitesto]

Si utilizza un software per aumentare il numero di ricerche (queries) di una parola chiave specifica per posizionarsi più in alto nella SERP.

Typosquatting[modifica | modifica wikitesto]

Chiamato anche "dirottamento di URL", è una forma di cybersquatting che si basa su errori di battitura/digitazione commessi digitando un URL nel browser. Consiste nello sfruttare tali errori per dirottare l'utente verso un sito differente da quello che voleva raggiungere

Domain Squatting[modifica | modifica wikitesto]

Registrare domini simili a un marchio o un'attività commerciale esistente ben indicizzata a scopo di ottenere vantaggi finanziari.

TrackBack Spam[modifica | modifica wikitesto]

Il TrackBack è stato creato per facilitare la comunicazione tra i blog inviando un ping, un messaggio inviato da un blogger a coloro che sono collegati a lui. Tuttavia usare all'esasperazione i ping è considerato spam.

Tecniche scorrette utilizzando Adobe Flash[modifica | modifica wikitesto]

Negli anni 90 e 2000, quando era in voga l'uso di Adobe Flash per creare siti web, i Black Hat SEO potevano inserire un swf in una pagina HTML fuori tema con il contenuto della pagina per fare in modo che l'utente visualizzasse un prodotto o servizio anche se aveva cercato tutt'altro e i motori di ricerca facevano fatica ad accorgersi di tale pratica scorretta. In generale, Flash stesso era meno indicizzabile di HTML.

Referrer Spam[modifica | modifica wikitesto]

Lo spam referrer è una sorta di spamdexing che si manifesta inquinando un sito con dati statistici falsi. Lo spammer mira a migliorare il posizionamento del proprio sito facendolo visitare da robot che si spacciano per utenti e nelle statistiche di strumenti come Google Analytics tale sito risulta molto visitato.

Offuscamento del codice sorgente[modifica | modifica wikitesto]

HTML offuscato. I due codici sono equivalenti, entrambi creano lo stesso output (la stessa pagina web) ma il secondo (in Javascript) è di difficile interpretazione per i motori di ricerca.
HTML offuscato. I due codici sono equivalenti, entrambi creano lo stesso output (la stessa pagina web) ma il secondo (in Javascript) è di difficile interpretazione per i motori di ricerca.

Per nascondere contenuto che si vuole mostrare agli utenti ma che non siano scansionate dai motori di ricerca viene utilizzato l'offuscamento del codice sorgente della pagina web. Ad esempio si usa per nascondere i link reciproci richiesti da alcuni siti che creano traffico e quindi posizionamento a una pagina (l'utente che conosce il codice sorgente li vede ma i motori di ricerca no e quindi non interpreta alcun link in uscita). Per farlo si utilizza per esempio un pezzo di codice Javascript che crea lo stesso output di un pezzo di codice HTML e CSS.

Clickjacking[modifica | modifica wikitesto]

Durante una normale navigazione web, l'utente clicca con il puntatore del mouse su di un oggetto (ad esempio un link), ma in realtà il suo clic viene reindirizzato, a sua insaputa, su di un altro oggetto, che può portare alle più svariate conseguenze: dal semplice invio di spam, al download di un file, fino all'ordinare prodotti da siti di e-commerce. Spesso questa tecnica è stata usata attraverso il tag HTML iframe che si usava negli anni 90 per creare i siti web, tecnica ora sconsigliata dal W3C.

Hijacking[modifica | modifica wikitesto]

Questa tecnica, più nota come Browser Hijacking (dirottamento del browser), permette ai dirottatori di eseguire sul malcapitato computer una serie di modifiche tali da garantirsi la visita alle loro pagine con l'unico scopo di incrementare in modo artificioso il numero di accessi e di click diretti al loro sito e conseguentemente incrementare i guadagni dovuti alle inserzioni pubblicitarie

Fake news[modifica | modifica wikitesto]

Google ha introdotto a il Fact-Check (contollo dei contenuti), un’etichetta che può essere applicata in una pagina web citando le fonti delle informazioni; la presenza del Fact Check è evidenziato sotto il singolo risultato di ricerca. Ciò fa capire all'utente che quel risultato di ricerca contiene una notizia falsa in modo che sempre meno utenti lo cliccheranno e perderà page rank sempre più[15][16].

Single-page application[modifica | modifica wikitesto]

Per SPA si intende un'applicazione web o un sito web che può essere usato o consultato su una singola pagina web con l'obiettivo di fornire una esperienza utente più fluida e simile alle applicazioni desktop dei sistemi operativi tradizionali. Questo metodo non è considerato "scorretto" dai motori di ricerca ma da alcuni esperti è considerato penalizzante per alcuni motivi[17][18]. Ha un solo set di metadati, quindi fornisce solo un tag H1 e un solo tag "description". Non è quindi possibile effettuare il siloing ossia suddividere in sezioni tematiche sulla base delle parole chiave il sito web[19]. La SEO favorisce i siti web con un numero alto di collegamenti, sia interni che esterni. I siti Web a pagina singola hanno una capacità limitata di includere molti collegamenti interni. Inoltre avere molti contenuti su una sola pagina significa che essa può diventare pesante e richiederà più tempo per caricarsi rispetto a un sito Web con più pagine, dato che la SEO favorisce i siti web a caricamento veloce.

Note[modifica | modifica wikitesto]

  1. ^ Si definisce "traffico organico" il volume di traffico composto dagli utenti che accedono alle risorse web durante una sessione di navigazione in un motore di ricerca, ad eccezione di quelle indicate in Google Analytics come "traffico diretto", che sono gli utenti che hanno digitato l'URL direttamente dal loro browser o che hanno aggiunto il sito ai segnalibri.
  2. ^ (EN) Il controllo ufficiale di validità del W3C:[1]
  3. ^ a b (EN) Le specifiche ufficiali WCAG 1.0 del W3C: [2]
  4. ^ (EN) Pete Perry, Updating The Meta Keyword Tag Is Useless! | Wiltwyck Web Design, su https://www.wiltwyck.com/. URL consultato il 16 gennaio 2021.
  5. ^ Google does not use the keywords meta tag in web ranking, su Google Developers. URL consultato il 16 gennaio 2021.
  6. ^ (EN) . Sull'uso dei Session ID in PHP nell'interrogazione: [3]
  7. ^ (EN) Ricerca su Google di meta refresh SEO: [4]
  8. ^ Google Webmasters, How does Google handle duplicate content?, 16 dicembre 2013. URL consultato il 22 dicembre 2016.
  9. ^ Gabriele Venturini, Pubblicare contenuti di qualità, su seeofood.it.
  10. ^ Google Webmasters, Are pages from social media sites ranked differently?, 22 gennaio 2014. URL consultato il 22 dicembre 2016.
  11. ^ Utilizzo del rel="nofollow", su support.google.com.
  12. ^ Black Hat SEO - Le 10 Tecniche che dovresti conoscere, su Final Design, 22 agosto 2018. URL consultato il 14 gennaio 2021.
  13. ^ (EN) 44 Black Hat SEO Techniques That Will Tank Your Site, su SEO Blog | cognitiveSEO Blog on SEO Tactics & Strategies, 23 novembre 2016. URL consultato il 14 gennaio 2021.
  14. ^ Source obfuscation: tecnica SEO black hat per nascondere l'HTML, su Eternal Curiosity, 26 agosto 2014. URL consultato il 14 gennaio 2021.
  15. ^ Fake News: Cosa sapere per SEO e digital, su Ale Agostini, 26 aprile 2017. URL consultato il 18 gennaio 2021.
  16. ^ (EN) Fact Check now available in Google Search and News around the world, su Google, 7 aprile 2017. URL consultato il 18 gennaio 2021.
  17. ^ (EN) Sean, 5 Best Reasons Why Single Page Websites Are Bad For SEO, su SEO Hacker | Philippine based SEO Company, 27 giugno 2018. URL consultato il 18 gennaio 2021.
  18. ^ Gli svantaggi dei siti One Page | Flavioweb.net, su flavioweb.net. URL consultato il 18 gennaio 2021.
  19. ^ Seo Siloing: la SEO nella struttura dei siti web, su AvantGrade, 9 gennaio 2020. URL consultato il 18 gennaio 2021.

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Controllo di autoritàGND (DE1026698669 · NDL (ENJA00964480
Internet Portale Internet: accedi alle voci di Wikipedia che trattano di internet