SEO Tecnica: Tutto Quello che Devi Sapere

Guida completa alla SEO tecnica: crawlability, indexability, architettura del sito, robots.txt, sitemap, canonical, velocità e structured data spiegate in modo pratico.

Quando la SEO Tecnica Ti Morde (e Te Ne Accorgi Troppo Tardi)

La SEO tecnica è quella cosa che tutti ignorano finché non si trovano con il sito completamente de-indicizzato. Non sto scherzando: mi è capitato un cliente che è venuto da me dopo aver perso il 90% del traffico organico in due settimane. Il motivo? Durante un aggiornamento del sito, qualcuno aveva lasciato un meta tag "noindex" su tutte le pagine. Tutte. Google aveva ubbidito e le aveva rimosse una per una dall'indice.

Cose del genere non dovrebbero succedere, ma succedono più spesso di quanto pensi. E la SEO tecnica serve proprio a evitarle.

Ora, non voglio spaventarti. La SEO tecnica non è roba da ingegneri nucleari. La maggior parte dei concetti sono logici, intuitivi, e una volta che li capisci li applichi quasi in automatico. Il problema è che spesso vengono spiegati con un linguaggio inutilmente complicato. Proviamo a fare meglio.

Crawlability: Google Riesce a Esplorare il Tuo Sito?

Prima di posizionarti, Google deve scoprire le tue pagine. Lo fa attraverso il crawler (Googlebot), un software che visita i siti web seguendo i link, pagina dopo pagina, come un esploratore che attraversa un labirinto.

Se il tuo sito ha problemi di crawlability, Google non riesce a raggiungere alcune pagine, o ci mette troppo tempo, o spreca il suo "budget" su pagine inutili.

I problemi di crawlability più comuni che trovo durante gli audit:

  • Link rotti interni – Pagine che linkano ad altre pagine che non esistono più. Ogni link rotto è un vicolo cieco per il crawler.
  • Catene di redirect – La pagina A reindirizza alla B, che reindirizza alla C, che reindirizza alla D. Ogni passaggio rallenta il crawler e disperde autorità.
  • Pagine orfane – Pagine che esistono ma non sono linkate da nessuna altra pagina del sito. Se nessun link interno ci porta, il crawler fa fatica a trovarle.
  • Struttura troppo profonda – Se una pagina importante si raggiunge solo dopo 6-7 click dalla home, il crawler la considererà poco importante. Idealmente, ogni pagina dovrebbe essere raggiungibile in 3 click o meno.

Robots.txt: Le Regole del Gioco

Il file robots.txt è un file di testo che si trova nella root del tuo sito (tuosito.it/robots.txt) e dice ai crawler cosa possono esplorare e cosa no. È come un cartello all'ingresso che dice "puoi entrare qui, ma non lì".

Un robots.txt ben fatto è essenziale. Uno fatto male può essere disastroso. Ecco un esempio di base sano:

User-agent: *
Disallow: /admin/
Disallow: /wp-admin/
Disallow: /carrello/
Disallow: /checkout/
Allow: /
Sitemap: https://tuosito.it/sitemap.xml

Cosa bloccare: aree admin, pagine di login, carrello, checkout, pagine di ricerca interna, pagine con parametri di filtro duplicati. Cosa NON bloccare: qualsiasi pagina che vuoi che appaia su Google. Sembra ovvio, eppure...

Un caso che mi è capitato: un'agenzia web aveva inserito Disallow: / nel robots.txt dell'ambiente di staging. Fin qui tutto bene. Poi hanno copiato il sito di staging in produzione senza modificare il robots.txt. Risultato: Google non poteva esplorare nulla. Mesi di lavoro SEO buttati per un file di testo.

XML Sitemap: La Mappa del Tuo Sito

La sitemap XML è un file che elenca tutte le pagine del tuo sito che vuoi far indicizzare a Google. Non è obbligatoria – Google può scoprire le pagine anche senza – ma è fortemente raccomandata, soprattutto per siti grandi o con struttura complessa.

Regole per una buona sitemap:

  • Includi solo pagine che vuoi indicizzare – Niente pagine noindex, niente redirect, niente errori 404. La sitemap deve essere pulita.
  • Tienila aggiornata – Se usi un CMS come WordPress, plugin come Yoast la generano e aggiornano automaticamente.
  • Non superare i 50.000 URL per file – Limite tecnico di Google. Se hai più pagine, usa un sitemap index che punta a più sitemap.
  • Segnalala in Google Search Console – Vai su Indice > Sitemap e invia l'URL della tua sitemap. Così Google sa dove trovarla.
  • Dichiarala nel robots.txt – Aggiungi la riga "Sitemap: https://tuosito.it/sitemap.xml" nel robots.txt.

Indexability: Google Riesce a Indicizzare le Tue Pagine?

Crawlability e indexability sono due cose diverse. Il crawler può raggiungere una pagina (crawlability ok) ma non indicizzarla, per vari motivi:

  • Meta tag noindex – Il tag <meta name="robots" content="noindex"> dice esplicitamente a Google di non indicizzare la pagina.
  • Canonical che punta altrove – Se la pagina ha un tag canonical che punta a un'altra pagina, Google indicizzerà l'altra.
  • Contenuto duplicato – Se Google trova lo stesso contenuto su più URL, ne indicizza solo uno (quello che ritiene "principale").
  • Contenuto thin – Pagine con pochissimo contenuto che Google considera di bassa qualità.

Per controllare lo stato di indicizzazione del tuo sito, Google Search Console è lo strumento fondamentale. La sezione "Pagine" (ex "Copertura") ti mostra quante pagine sono indicizzate, quante escluse, e perché.

Tag Canonical: Evitare i Duplicati

Il tag canonical è uno dei concetti più fraintesi della SEO tecnica. In parole semplici: serve a dire a Google "questa pagina è una copia/variante di quest'altra pagina, quindi indicizza solo l'originale".

Quando serve:

  • Stessa pagina accessibile da più URL (con e senza www, con e senza trailing slash, con parametri URL diversi)
  • Pagine di prodotto accessibili da più categorie
  • Versioni stampabili o AMP di una pagina
  • Contenuti sindacati o ripubblicati su più siti

Il canonical è un suggerimento, non una direttiva. Google può decidere di ignorarlo se ritiene che la pagina canonica indicata non sia la scelta migliore. Ma nella stragrande maggioranza dei casi, lo segue.

Un errore che vedo spesso: canonical self-referencing mancanti. Ogni pagina dovrebbe avere un tag canonical che punta a sé stessa. Sembra ridondante, ma serve a prevenire problemi con versioni parametrizzate della stessa URL.

HTTPS: Non È Più Opzionale

Se il tuo sito è ancora in HTTP nel 2025, hai un problema serio. Google usa HTTPS come segnale di ranking dal 2014. Chrome mostra un avviso "Non sicuro" per i siti HTTP. E gli utenti stanno imparando a non fidarsi dei siti senza il lucchetto.

Migrare a HTTPS è relativamente semplice: certificato SSL (Let's Encrypt è gratuito), redirect 301 da HTTP a HTTPS, aggiornare tutti i link interni. Ma attenzione ai dettagli: contenuti misti (risorse HTTP in pagine HTTPS), redirect non configurati correttamente, e canonical non aggiornati sono errori comuni durante la migrazione.

Velocità del Sito: I Core Web Vitals

Google misura la velocità del tuo sito attraverso tre metriche chiamate Core Web Vitals:

  1. LCP (Largest Contentful Paint) – Quanto ci mette il contenuto principale a diventare visibile. Obiettivo: sotto i 2.5 secondi.
  2. INP (Interaction to Next Paint) – Quanto tempo ci mette la pagina a rispondere quando l'utente interagisce. Obiettivo: sotto i 200 millisecondi.
  3. CLS (Cumulative Layout Shift) – Quanto si "muove" il layout durante il caricamento (quei fastidiosi spostamenti del contenuto). Obiettivo: sotto 0.1.

Puoi controllare i tuoi Core Web Vitals con Google PageSpeed Insights, Lighthouse, o direttamente in Google Search Console nella sezione "Esperienza" che ti mostra i dati reali degli utenti.

Gli interventi che hanno più impatto sulla velocità: ottimizzazione delle immagini (ne ho parlato in un articolo dedicato), minificazione di CSS e JavaScript, caching del browser, un hosting decente. Sì, l'hosting conta: se il tuo sito sta su un hosting condiviso da 2 euro al mese, non aspettarti miracoli sulla velocità.

Dati Strutturati (Schema Markup)

I dati strutturati sono un modo per comunicare a Google informazioni specifiche sul contenuto delle tue pagine in un formato che può elaborare facilmente. Pensali come etichette che attacchi al tuo contenuto per dire: "questo è un prodotto", "questa è una ricetta", "questa è una FAQ".

I tipi di schema più utili per la maggior parte dei siti:

  • Organization / LocalBusiness – Informazioni sulla tua azienda
  • BreadcrumbList – La navigazione a briciole di pane
  • Article / BlogPosting – Per gli articoli del blog
  • FAQ – Per le sezioni di domande frequenti (possono generare rich snippet nei risultati)
  • Product – Per gli e-commerce, con prezzo, disponibilità, recensioni
  • HowTo – Per guide passo-passo

Implementare i dati strutturati correttamente può farti ottenere rich snippet nei risultati di ricerca: stelle delle recensioni, prezzi, FAQ espandibili, e altro. Non migliorano direttamente il ranking, ma aumentano significativamente il click-through rate perché i tuoi risultati spiccano visivamente rispetto agli altri.

JavaScript e Rendering: Il Problema dei Siti Moderni

I siti costruiti con framework JavaScript come React, Angular o Vue possono avere problemi seri di SEO se non gestiti correttamente. Il motivo: Google deve prima eseguire il JavaScript per vedere il contenuto, e questo processo (rendering) richiede risorse e tempo aggiuntivi.

Se il tuo sito è un'applicazione JavaScript a singola pagina (SPA), assicurati di usare il server-side rendering (SSR) o almeno il pre-rendering. Framework come Next.js (per React) e Nuxt (per Vue) gestiscono il SSR nativamente e sono generalmente SEO-friendly se configurati bene.

Un test rapido per verificare: cerca il tuo sito su Google e clicca su "Copia cache" nei risultati. Se la versione cache mostra una pagina vuota o con contenuto mancante, hai un problema di rendering JavaScript.

Crawl Budget: Quando Conta Davvero

Il crawl budget è il numero di pagine che Google decide di esplorare sul tuo sito in un dato periodo. Per la maggior parte dei siti (sotto le 10.000 pagine), il crawl budget non è un problema reale. Google riesce tranquillamente a esplorare tutto.

Diventa un fattore critico per siti molto grandi: e-commerce con decine di migliaia di prodotti, portali di annunci, siti con molti filtri e parametri. In questi casi, ottimizzare il crawl budget significa assicurarsi che Google spenda le sue risorse sulle pagine che contano, non su pagine di filtro duplicate o pagine di paginazione infinite.

Come gestirlo: blocca le pagine inutili nel robots.txt, usa i tag noindex dove serve, e mantieni la struttura del sito il più piatta possibile. Ma ripeto: se hai un sito con meno di qualche migliaio di pagine, non è il crawl budget il tuo problema. Concentrati su contenuti e link.

Domande Frequenti

Da dove comincio con la SEO tecnica del mio sito?

Il primo passo è un audit tecnico con uno strumento come Screaming Frog (gratuito fino a 500 URL) o Sitebulb. Questi strumenti esplorano il tuo sito come farebbe Google e ti mostrano tutti i problemi: link rotti, redirect, pagine senza canonical, immagini senza alt text, pagine lente. Parti dai problemi più gravi (errori 5xx, pagine noindex accidentali, contenuti duplicati massicci) e poi scendi verso i dettagli.

Il mio sito è su WordPress: la SEO tecnica è già gestita?

WordPress gestisce le basi (URL leggibili, meta tag, sitemap con i plugin giusti), ma non tutto. Devi comunque occuparti di velocità (tema leggero, hosting buono, caching), immagini ottimizzate, link interni, struttura delle categorie, e verificare che i plugin non creino problemi di duplicazione o pagine inutili. Un plugin come Yoast SEO aiuta molto, ma non fa tutto da solo.

Quanto spesso devo controllare la SEO tecnica del mio sito?

Un audit tecnico completo andrebbe fatto almeno ogni 3-6 mesi, o subito dopo modifiche importanti al sito (redesign, migrazione, aggiunta di nuove sezioni). Ma alcune cose vanno monitorate costantemente: Google Search Console ti avvisa in tempo reale di errori di crawling, problemi di indicizzazione e cali di performance. Controllala almeno una volta a settimana. Cinque minuti che possono evitarti mesi di problemi.

Il mio sito usa un page builder come Elementor. Ci sono rischi per la SEO tecnica?

I page builder possono creare problemi di performance perché generano molto codice HTML, CSS e JavaScript in più rispetto a un tema custom. Il risultato è spesso pagine più lente e codice "sporco" che rende più difficile il lavoro del crawler. Non dico di non usarli – ci sono siti su Elementor che si posizionano benissimo – ma devi compensare con ottimizzazione della cache, un hosting potente, e attenzione alla velocità di caricamento.

I redirect 301 fanno perdere posizionamento?

Google ha confermato che i redirect 301 non perdono più PageRank come una volta. Detto questo, è sempre meglio aggiornare i link interni alla nuova URL piuttosto che lasciare redirect permanenti. I redirect aggiungono un passaggio nel caricamento (anche se minimo) e, se si accumulano in catene (redirect che puntano ad altri redirect), possono creare problemi sia di velocità che di crawling. Usa i redirect quando servono, ma non lasciarli come soluzione permanente se puoi aggiornare i link.

Pronto a portare il tuo sito in Prima Pagina?

Ogni giorno perso senza una strategia SEO è un'opportunità regalata alla concorrenza. Inizia oggi.

Inizia Ora →