📑 Indice dei Contenuti
Quando Google attiva un AI Overview, il 21% degli utenti clicca su un risultato organico. Senza AI Overview la percentuale sale al 56%. Questi dati, pubblicati dal Pew Research Center nel luglio 2025, non descrivono un esperimento in corso: descrivono lo stato corrente della ricerca e la direzione in cui si muove.
Un cambio di architettura, non di algoritmo
Gli AI Overview non ridistribuiscono il traffico tra i risultati organici: lo trattengono dentro Google. Il punto di soddisfazione dell’utente si sposta dalla pagina di destinazione alla SERP stessa. È la zero-click search portata a scala sistematica.
A marzo 2025, quasi una ricerca su quattro su Google generava un sommario AI. La distribuzione non è uniforme: le query brevi di 1-2 parole attivano un AI Overview nell’8% dei casi, le domande articolate e le ricerche informazionali complesse lo fanno nel 53% dei casi. Questa asimmetria è critica per chi produce contenuti. Le pagine ottimizzate sul long-tail informazionale, quelle che per anni sono state il terreno più fertile della SEO editoriale, sono oggi le più esposte alla sottrazione di clic.
La velocità di espansione del fenomeno è misurata da Semrush: la percentuale di SERP contenenti un AI Overview è passata da 6,49% a 13,14% tra gennaio e marzo 2025. Con accelerazioni disomogenee per settore nello stesso trimestre: ristorazione +273%, immobiliare +258%, trasporti +223%. Per chi lavora su siti nel turismo, nella ristorazione o nei servizi professionali locali, la pressione è già oggi strutturale.
Il traffico che sparisce dentro la SERP
La perdita media annuale di traffico da Google Search nel 2025 si è attestata al -10%, con una forbice tra -7% per i siti di news e -14% per i siti non-news. Il rapporto tra traffico perso e traffico guadagnato è stato di 2 a 1. Parallelamente, i dati globali di referral mostrano un calo da 12 miliardi a 11,2 miliardi di visite mensili (-6,7%), mentre il traffico proveniente dalle piattaforme AI come ChatGPT e Perplexity non compensa la perdita: siamo nell’ordine di decine di milioni di visite, non miliardi.
Questi numeri non derivano da un penalty né da un errore tecnico sul sito. Derivano da un cambiamento nell’interfaccia di ricerca indipendente dalla qualità dei contenuti. Un sito tecnicamente ineccepibile, con Core Web Vitals ottimizzati e backlink autorevoli, può perdere traffico semplicemente perché Google risponde direttamente alla query che prima portava l’utente su quel sito.
Il punto non è solo la perdita di clic. È capire quali query si stanno trasformando in citazione nell’AI Overview invece che in visita: perché essere citati ha un valore di brand diverso dal clic, ma comunque reale. Una consulenza SEO strategica costruita su questi presupposti distingue le keyword su cui puntare ancora al ranking tradizionale da quelle su cui ottimizzare per la citazione AI. Trattarle allo stesso modo produce strategie inefficaci.
GEO: ottimizzare per essere citati, non solo per posizionarsi
La Generative Engine Optimization (GEO) non è una disciplina separata dalla SEO: è l’estensione logica dell’ottimizzazione verso i sistemi che ora generano risposte invece di listare link. Google, Perplexity, ChatGPT Search, Gemini: tutti pescano da pagine web per costruire le proprie sintesi. La domanda cambia: non più solo “sono primo su Google?”, ma “sono tra le fonti che un AI cita quando risponde a questa domanda?”.
Per essere citato da un sistema AI, un contenuto deve superare tre filtri distinti.
Trovabile: il contenuto deve essere indicizzato, accessibile ai crawler (inclusi i bot AI) e tecnicamente corretto. Un sito con problemi di crawl o con blocchi accidentali in robots.txt non entra nel pool delle fonti candidate. Questo vale anche per i nuovi bot AI che alcune piattaforme usano per raccogliere dati al di fuori di Googlebot.
Comprensibile: la struttura deve permettere l’estrazione. I modelli linguistici prediligono risposte dirette posizionate nei primi paragrafi, definizioni formulate in modo autonomo rispetto al contesto circostante, tabelle HTML per confronti e dati, sezioni FAQ con markup. Un contenuto costruito come flusso narrativo continuo è più difficile da sintetizzare rispetto a uno con header semanticamente precisi e paragrafi autosufficienti.
Citabile: il contenuto deve essere percepito come autorevole. Google ha confermato nel 2023 e ribadito nel 2025 che non esistono requisiti speciali per apparire nelle risposte AI: valgono ancora i criteri E-E-A-T. Experience, Expertise, Authoritativeness, Trustworthiness. Un contenuto che mostra esperienza diretta, con dati proprietari, risultati di progetto e test condotti in prima persona, è più difficile da ignorare per un sistema AI rispetto a uno che aggrega informazioni già presenti altrove in forma identica.
L’aggiornamento temporale conta più di quanto sembri: un articolo del 2021 non revisionato ha probabilità notevolmente inferiori di essere citato rispetto allo stesso contenuto aggiornato nel 2025 con dati recenti. Non si tratta di riscrivere da zero, ma di aggiungere una sezione con i dati più recenti e correggere le informazioni superate.
Schema markup e leggibilità AI: cosa implementare
A livello tecnico, alcune implementazioni aumentano la probabilità di essere selezionati come fonte.
Article Schema e FAQ Schema strutturano il contenuto in un formato che i modelli linguistici leggono in modo più efficiente. Le FAQ simulano la struttura domanda-risposta che è esattamente la forma che gli AI Overview spesso assumono nelle SERP.
Person Schema e Author markup aiutano i sistemi AI a identificare chi ha scritto il contenuto e qual è il profilo di autorevolezza dell’autore. Per i siti di professionisti, avvocati, medici, consulenti, questo è rilevante perché Google tratta queste categorie con criteri YMYL più stringenti, e i sistemi AI seguono la stessa logica.
Structured data per dati contestuali: prezzi, orari, disponibilità, recensioni verificate. Per un e-commerce, lo schema Product correttamente implementato non serve solo per i rich results classici: serve anche perché i sistemi AI possano estrarre informazioni precise senza ambiguità interpretativa. Per verificare lo stato attuale del markup e identificare le lacune tecniche, il punto di partenza è un’analisi SEO completa che includa la leggibilità delle pagine da parte dei crawler AI, non solo quella di Googlebot classico.
Azioni concrete per il 2026
Inventariare le keyword per rischio AI Overview. Verificare su Search Console il rapporto clic/impressioni per le singole query principali: un calo delle impressioni con posizione stabile è spesso il segnale che quella query ha iniziato ad attirare un AI Overview. Non tutto il sito ha lo stesso livello di esposizione.
Riscrivere i lead dei contenuti informativi. La risposta alla domanda implicita nel titolo deve stare nei primi 2-3 paragrafi, formulata in modo diretto e autonomo rispetto al contesto circostante. È il formato che i sistemi AI preferiscono estrarre per costruire i propri riepiloghi.
Citare fonti con link esplicito. I modelli AI privilegiano contenuti che citano fonti autorevoli, studi, dati ufficiali, ricerche di settore, con link visibili. Un contenuto che dichiara le proprie fonti è percepito come più affidabile sia da Google che dai sistemi generativi di terze parti.
Rafforzare l’E-E-A-T con dati proprietari. Casi studio, metriche interne, osservazioni dirette su progetti reali. È il tipo di contenuto più difficile da replicare automaticamente e che i modelli linguistici tendono a citare perché non trovano la stessa informazione in forma identica altrove. Sul fronte della produzione editoriale, un approccio di SEO copywriting aggiornato a questi standard non lavora solo sulla densità delle keyword: lavora sulla struttura estrattiva, sull’autorevolezza della fonte e sulla risposta diretta all’intento di ricerca.
Aggiornare sistematicamente i contenuti datati. Non riscrivere da zero, ma aggiungere dati recenti, correggere informazioni superate e segnalare la data di revisione in modo visibile. Questo indica ai sistemi AI che il contenuto è mantenuto attivo.
Quali siti rischiano di più
I siti più esposti all’erosione da AI Overview sono quelli costruiti prevalentemente su contenuto informazionale generico: guide enciclopediche, articoli comparativi di prodotto, spiegazioni di concetti ampiamente coperti da Wikipedia o da fonti istituzionali. Contenuti che rispondono a domande che Google è ora in grado di sintetizzare senza dover inviare l’utente altrove.
I siti che reggono meglio sono quelli con contenuto che i sistemi AI non possono sintetizzare efficacemente: recensioni basate su esperienza diretta e verificata, dati proprietari non replicabili, prezzi e disponibilità in tempo reale, contenuto transazionale locale con specificità geografica. Un’attività a Perugia, Spoleto o Terni con pagine locali specifiche e contenuto basato su esperienza reale ha un rischio AI Overview strutturalmente più basso di un blog generalista che risponde a domande già presenti in centinaia di altri siti.
Per le PMI e i professionisti umbri la logica è analoga: contenuto generico è facilmente sostituibile da una risposta AI, contenuto specifico sul territorio, sui servizi concreti e sui casi reali è molto più resistente all’erosione da zero-click.
La ricerca con AI non elimina la SEO: ridefinisce su quali tipi di contenuto vale la pena competere. Chi continua a produrre testi intercambiabili alimenta il motore che li sostituirà. Chi costruisce contenuti che mostrano esperienza verificabile e struttura chiara mantiene ancora un vantaggio competitivo reale.