Remarks 284° | Query fan-out technique.
La struttura dei tuoi contenuti per la modalità AI di Google e il FastSearch.
Moment Of Truth | 03:33 Minuti
Il tuo touchpoint sullo spazio digitale: uno strumento pratico dove troverai idee, riflessioni, conoscenze e framework in grado di guidarti nell’esecuzione della tua innovazione digitale. Testala, è gratis ↓
Buondì, e buon lunedì.
Hai mai sentito parlare di “Intent Compression”?
Analizziamo i fatti: il cuore pulsante delle AI overviews è il FastSearch, una tecnologia proprietaria che si affida a RankEmbed, un deep-learning model che usa il natural language understanding per identificare la rilevanza semantica non del documento, ma del frammento di testo.
Sembra uno scioglilingua, e lo è ma è ciò che è emerso dal caso antitrust di Google.
I link sono un segnale di training, non più la leva di ranking principale per l’AI-grounding.
Il muro di FastSearch è potenzialmente una crisi, la rottura è il query fan-out: l’esplosione conversazionale di un singolo prompt ad alta intenzione in uno sciame distribuito di sub-queries che spaziano tra concetti, entità e intenzioni correlate.
(Es. in una query su un mutuo auto si ramificano domande su tassi, durata etc…).
L’unica metrica che conta è l’entity coverage del tuo dominio. La tua priorità è implementare una clustered architecture ottimizzata per il passage-first authoring. In sostanza, dimentica il volume di ricerca, concentrati sulla domanda latente che l’AI sta attivamente cercando di soddisfare.
Se non ci hai capito nulla, prosegui.
Se ti è tutto chiaro, qui sotto trovi come applicarlo.
TL;DR | Takeaways
In questa edizione del Remarks, smettiamo di discutere del futuro della SEO e dissezioniamo l’algoritmo che lo governa. La narrazione sul zero-click è superficiale; il fenomeno tecnico è la intent compression abilitata da un sistema di information retrieval completamente disaccoppiato dal ranking tradizionale.
Quindi di, oggi si parla dell’analisi di dati tecnici emersi dal caso antitrust di Google e dall’osservazione delle dinamiche LLM/RAG, nello specifico:
RankEmbed: il tuo traffico decisionale (alto valore) è a rischio intent compression perché AIOs usano FastSearch/RankEmbed. Questo sistema privilegia la velocità e la precisione semantica basata sui dati utente (click-and-query data e human rater scores), non l’autorità storica. Il ROI si sposta dalla prima pagina alla citazione autorevole nel blocco AI.
SEO: devi ottimizzare per la decostruzione dell’intento. Devi fare reverse QA (quality assurance inversa) sui risultati AI per estrarre le domande latenti generate dal query fan-out. Il contenuto deve essere scritto in blocchi di 40-60 parole (passage-first authoring), con semantically-rich headings che incorporano entità e modificatori.
Actionable: la strategia immediata è triplice: decostruzione entità, ristrutturazione passage-first e reverse engineering dinamico del fan-Out, e questo è ciò di cui parleremo in questa edizione.
Stai leggendo una nuova edizione del light format del Remarks.
Oggi parliamo di come:
Viviamo nel paradosso del Zero-Click imposto dalle AI Overviews di Google: la promessa di una risposta onnicomprensiva che cannibalizza il traffico organico. Il problema non è la riduzione del CTR, ma la mutazione genetica del motore di ricerca.
La documentazione emersa dal recente caso antitrust è lapidaria: per “grounding” (fondare la risposta) delle AIOs, Google impiega FastSearch.
Questa tecnologia è una versione snellita del motore di ricerca, accelerata per la natura real-time della risposta AI. Te la provo a semplificare:
Abbandono del link-graph: FastSearch non usa l’algoritmo di ranking completo. Si basa sul modello RankEmbed, un deep-learning model che analizza la user-side data (log di ricerca, dati di click-and-query, rating umani) per identificare la rilevanza semantica del documento rispetto alla query, non la sua autorità basata sui link.
Focus sulla long-tail: RankEmbed è specificamente ottimizzato per migliorare le risposte alle long-tail queries. Ciò significa che non è un “nice to have” per domande semplici, ma la funzione per la ricerca complessa e decisionale.
Il risultato è l’Intent Compression: l’utente inserisce una domanda complessa, il sistema la scompone, sintetizza 41 (o più) risultati di ricerca in un singolo output AIO, e l’utente non clicca. La visibilità tradizionale muore.
Questa è la crisi della link economy.
GO↓
🔵 Query fan-out technique.
Disintegrare l’Intento.
Sono volutamente ripetitivo, ma è bene fissare bene alcuni concetti perché il paradosso è che la stessa compressione crea una formidabile opportunità.
Gli LLM, non potendo rispondere a un quesito complesso con una singola pagina, attiva il query fan-out: disintegra la domanda in sub-queries semantiche.
Facciamo un esempio:
Query utente (intento compresso): “Quali sono i migliori modelli di governance AI per startup SaaS in Europa con meno di 50 dipendenti?”
Query fan-out (sub-queries interne): “Regolamentazione AI GDPR startup”, “Framework governance LLM per SaaS”, “Costi implementazione compliance AI Europa”, “Best practice MLOps per team ridotti”, etc.
Per intercettare il Query Fan-Out, il contenuto non deve essere solo rilevante per l’argomento principale, ma deve essere la fonte autoritativa di singoli passaggi e frammenti che rispondono a ciascuna delle sub-queries.
Se è tutto chiaro, ecco 3 strategie immediate, con tool e prompt, da implementare oggi stesso per trasformare la tua content strategy da keyword-first a entity-first. ↓
Referral Program
Se pensi che questo Remarks possa interessare a qualcuno, puoi condividerlo.
1/ →Mappatura della domanda latente
Per vincere il Query Fan-Out, dobbiamo smettere di indovinare le keyword e iniziare a mappare le domande latenti che l’AI sta cercando di rispondere.
Tool necessari:
ChatGPT/Claude/LMMS
Un foglio di calcolo
Estrazione delle domande latenti
Scegli la tua Core Query ad alta intenzione
(es. “Miglior software per la gestione dei ricavi SaaS B2B”).Esegui la query su un motore di ricerca che mostra un AI Overview.
Copia l’intera risposta generata.Prompt per l’LLM: “Leggi attentamente questo documento ([Incolla il testo dell’AIO]). Agisci come un ingegnere LLM. Estrai una lista completa di 50 domande specifiche che sono state direttamente o completamente risposte dal testo. Queste sono le sub-queries che il sistema ha generato per comporre la sua risposta (Query Fan-Out).”
Entity/Intent clustering e gap analysis:
Prendi le 50 domande estratte. Raggruppale in 5-10 entità core (es. “Integrazione CRM”, “Modelli di Pricing”, “Compliance GDPR”).
Gap finder: esegui una ricerca sul tuo dominio per ognuna delle 50 domande (es. site:miodominio.it “Modelli di Pricing Ricorrenti”).
Ogni domanda che non trova una risposta, specifica e diretta sul tuo dominio, è un gap di query fan-out. Questi sono i nuovi contenuti da prioritizzare: non sono keyword, sono micro-intenti che l’AI sta cercando di coprire.
2/ →Clustered per l’estrattibilità
ll contenuto non deve solo avere l’informazione; deve servirla in un formato predigerito per l’LLM. Dobbiamo garantire la massima estraibilità dei frammenti e la navigabilità contestuale (fraggles).
Tool necessari:
Screaming Frog
Editor HTML/CMS.
Auditing degli H semantici:
Istruzione crawler: configura Screaming Frog in modalità Custom Extraction per estrarre tutti i titoli H2, H3, H4 delle tue 10 pagine Core.
Analisi: filtra i titoli “generici” e “non-semantici” (es. “Introduzione”, “Conclusione”, “Panoramica”). Questi Heading devono essere riscritti per Embeddare Entità e Modificatori. (Esempio: Invece di “Batteria”, scrivi “durata della batteria dei SUV elettrici in inverno“.) Questo anticipa le sub-queries generate dal fan-out e aumenta il RankEmbed score per specificità.
Regola del 40-60 parole e passage-First:
Azione tecnica: ogni sezione sotto un H3/H4 deve iniziare con la risposta diretta in una singola frase, seguita dal dettaglio. La lunghezza massima ideale per il blocco di testo principale è 40-60 parole. Questo riflette perfettamente come gli LLM selezionano i snippet per il grounding.
Implementazione dei contesto-fraggles (jump links):
Istruzione: In ogni articolo pillar o hub, implementa jump links contestuali (<a href=”#ID-sezione”>) non solo nel sommario, ma all’interno del corpo del testo quando fai riferimento a un concetto o un’entità correlata trattata più in basso o su una pagina spoke. Questo crea un percorso esplicito per l’AI, migliorando la clustered architecture e aiutando l’LLM a zero-in sulle entità più rilevanti.
3/ →Credibilità esterna e aggiornamento
FastSearch/RankEmbed è addestrato su user-side data e human rater scores. Ciò significa che la qualità percepita e l’attualità sono essenziali per il grounding.
Tool necessari:
LLM
Team di Content/SME
Credibility hooks:
Analisi del RAG: l’LLM predilige i passaggi che hanno citazioni che supportano le affermazioni.
Azione: identifica i passaggi chiave ad alta specificità (statistiche, claims tecnici, dati di settore) nei tuoi articoli Core. Per ciascuno, implementa un link di citazione iper-specifico a una fonte di alta autorità (peer-reviewed, governativa, istituzionale) o un riferimento al tuo proprio studio proprietario. L’LLM deve vedere la fonte autorevole per poter citare il tuo frammento.
Freschezza e “Ping” di ricrawl:
Istruzione: stabilisci un ciclo di Freshness Pings per i tuoi contenuti più strategici (almeno mensile).
Tecnica: anche una line edit minore o l’aggiornamento di un dato statistico time-sensitive + la modifica della data di pubblicazione è sufficiente. Questo incoraggia il ricrawl e segnala all’AI che il contenuto è Live Web, qualificandolo per le sub-queries che cercano l’informazione più attuale.
Ottimizzazione del TOV per l’AI:
Prompt LLM: “Analizza il testo seguente. Identifica i passaggi in cui il tono di voce è troppo vago, promozionale o auto-referenziale. Riscrivi quei passaggi con un tono oggettivo, informativo, da ‘guida tecnica definitiva’, che massimizzi la percezione di autorevolezza e obiettività, come farebbe un white paper universitario. Restituisci solo i passaggi riscritti.” L’oggettività e la trasparenza sono i nuovi indicatori di qualità per RankEmbed.
Non stai solo facendo SEO; stai riconfigurando l’architettura della conoscenza della tua azienda per il consumo algoritmico. Il Query Fan-Out è la tua mappa. FastSearch è il tuo cronometro.
Non è riscrivere un H1, pensa in blocchi di 60 parole.
Questo è Remarks. Il Touchpoint digitale di Catobi. Se ti fa piacere continuare a parlare di questi temi, basta scrivermi → In questo canale offriamo spazio, attraverso varianti pubblicitarie, al racconto dell’innovazione dei nostri Partner, e veicolando il contenuto su tutte le nostre piattaforme, comprese LinkedIn, Instagram e Telegram. Qui tutte le informazioni su come sponsorizzare gli episodi della newsletter→






