Remarks 308° | Retrieval authority.
Uno storia lunga: l'illusione della scalabilità.
Moment Of Truth | 03:33 Minuti
Il tuo touchpoint sullo spazio digitale: uno strumento pratico dove troverai idee, riflessioni, conoscenze e framework in grado di guidarti nell’esecuzione della tua innovazione digitale. Testala, è gratis ↓
Buondì, e buon lunedì.
Hai mai pensato di essere in un epoca diversa?
C’è un fantasma che si aggira per i reparti marketing delle aziende: l’illusione della scalabilità. Per anni ci hanno venduto l’idea che “più contenuti” significasse “più traffico”; poi è arrivata l’AI generativa e quel “più” è diventato un rumore bianco assordante e oggi ti ritrovi a scalare il disappunto dei tuoi utenti e, cosa ancora più grave, l’indifferenza degli algoritmi.
Pensaci, è il punto di arrivo di un’evoluzione biologica del web che abbiamo ignorato per troppo tempo. Abbiamo vissuto 3 ere geologiche della SEO:
L’era dell’abbondanza (early 2000s): bastava esserci, pagine sgrammaticate, keyword stuffing, e il crawler ti premiava perché il web era un deserto;
L’era dell’authority (2010s): il regno dei backlink e della lunghezza. “Scrivi 2000 parole e ottieni link da siti famosi”. Abbiamo iniziato a scalare la quantità, convinti che il volume fosse un proxy della qualità;
L’era dell’efficienza (oggi): il web è saturo, l’utente è saturo, l’algoritmo non vuole più “più contenuto”. Vuole il miglior contenuto, estratto nel minor tempo possibile.
In sostanza, mentre la SEO tradizionale agonizza sotto il peso di contenuti mediocri prodotti in serie, sta emergendo una nuova scienza: quella di come i large language models (LLM) scelgono le proprie fonti. Non si tratta più di “posizionarsi”, ma di diventare il punto di riferimento inattaccabile per i sistemi di Retrieval-Augmented Generation (RAG).
TL;DR | Takeaways
In questa edizione del Remarks, esploreremo la fine del contenuto “massivo” e l’inizio della precision engineering editoriale. Ti mostrerò come gli agenti AI filtrano la realtà e come puoi hackerare questo processo per far sì che la tua azienda non sia solo una voce nel mucchio, ma l’unica fonte che conta.
Stop scaling disappointment: la produzione di massa assistita da AI sta creando un “debito di attenzione”. Se il tuo contenuto non risolve un problema unico, per Google e per i Search Engines AI è solo spam computazionale;
The science of selection: gli LLM non scelgono le fonti come faceva il PageRank. Analizzeremo come la Semantic Density e la Source Verifiability influenzano ciò che ChatGPT o Perplexity citano nelle loro risposte;
Contextual anchoring: imparerai a smettere di scrivere per le keyword e a iniziare a scrivere per i vettori di significato, garantendoti un posto d’onore nei frammenti di contesto degli agenti AI.
Stai leggendo una nuova edizione del light format del Remarks.
Oggi parliamo di come:
Per anni ci siamo drogati di metriche di vanità. Abbiamo costruito "Content Factories" che sputano articoli per presidiare ogni singola keyword a coda lunga. Ma ecco la verità tecnica: i motori di ricerca moderni (e ancor più i Search Engine AI come Perplexity o SearchGPT) stanno attuando una selezione naturale delle fonti.
L’AI non legge il tuo articolo dall’inizio alla fine per svago. Lo “vettorializza”: cerca di capire se quello che dici aggiunge un delta di informazione rispetto a quanto già presente nel suo dataset di addestramento. Se il tuo contenuto è una rielaborazione (anche se ben scritta) di ciò che esiste già, la sua “utilità marginale” per l’LLM è zero.
Non verrai citato, non verrai mostrato.
La scienza dietro la scelta delle fonti si basa su un concetto cardine: la verificabilità incrociata. Gli LLM preferiscono fonti che confermano i fatti core ma che aggiungono dettagli tecnici, dati proprietari o angolazioni uniche che rendono la risposta finale più robusta.
Nuova architettura dell'informazione.
GO↓
🔵 Retrieval authority.
Tre pratici approcci
1/ → Nodi di verità
Gli LLM sono programmati per minimizzare le allucinazioni. Per farlo, cercano fonti che presentino dati strutturati, citazioni verificabili e una gerarchia informativa chiara. Non scrivere più “articoli”, costruisci “nodi di verità”.
Prendi il tuo piano editoriale e cestina i titoli generici. Per ogni contenuto, devi identificare una “proprietary data point” (un dato, un sondaggio interno, un caso studio tecnico).
Inserisci all’interno del testo dei blocchi di “entity facts”. Se parli di una soluzione software, non limitarti a descriverla. Crea una sezione tecnica con specifiche, benchmark di performance e integrazioni API documentate. Questo trasforma il tuo testo da “chiacchiera” a “documentazione”, rendendolo estremamente attraente per i processi di indexing dei motori di ricerca basati su agenti.
Applica la regola del direct hit. Ogni paragrafo deve contenere almeno un’entità (persona, luogo, tecnologia, dato numerico) e una relazione chiara. Se un paragrafo può essere rimosso senza perdere informazioni fattuali, cancellalo.
Struttura i tuoi contenuti seguendo il formato Claim | Evidence | Impact.
Claim: una dichiarazione netta
(es. “L’efficienza termica del componente X è del 15% superiore”).Evidence: dati tecnici o benchmark
(es. “Test condotti secondo lo standard ISO-9001 mostrano...”).Impact: cosa significa per l’utente. Questa struttura è “scansionabile” dagli algoritmi di estrazione dei dati in modo infinitamente più efficace rispetto a una narrazione lineare.
2/ →Authority citazionale
Dobbiamo capire come l’AI decide che tu sei la fonte affidabile. Non è più solo questione di backlink (anche se servono). È questione di “correlazione semantica”. Se i paper accademici, i forum tecnici e le testate di settore parlano di un tema usando certi termini, e tu sei l’unico che li connette in modo pratico, diventi un’ancora semantica.
Smetti di guardare i volumi di ricerca delle keyword. Inizia a mappare le “co-cccorrenze”. Quali sono i termini tecnici che compaiono sempre nei risultati top per la tua nicchia? Se non li stai usando, sei invisibile agli occhi di un modello che ragiona per probabilità statistica di linguaggio.
Implementa lo “Schema Markup” non solo per i prodotti, ma per le “ClaimReview” e le “Speakable”. Ma vai oltre: crea una sezione di “References” esterna ai tuoi articoli, proprio come in un paper scientifico. Citare fonti autorevoli (anche concorrenti, se necessario) aumenta la tua Trust Score algoritmica. Gli LLM riconoscono i pattern di affidabilità: un contenuto che si isola è sospetto; un contenuto che si integra nell’ecosistema della conoscenza è una fonte.
Identifica i “dati fantasma” del tuo settore. Quali sono le domande a cui nessuno risponde con numeri certi? Fai una ricerca interna, estrai i dati dai tuoi CRM (anonimizzati) o dai tuoi test di laboratorio e rendili il cuore del contenuto.
Implementa il contextual anchoring. Invece di linkare genericamente a fonti esterne, crea dei “Deep Links” interni che collegano concetti tecnici specifici a white paper o documentazione tecnica granulare sul tuo sito. Questo crea una ragnatela di segnali di competenza che l’LLM interpreta come un segnale di massima autorità sul tema specifico (Topical Authority 2.0).
Stai usando i tuoi dati di performance come ground truth per istruire l'AI.↓
Referral Program
Se pensi che questo Remarks possa interessare a qualcuno, puoi condividerlo.
3/ →Semantic gap
Il terzo approccio riguarda il modo in cui i motori di ricerca AI colmano il vuoto tra la query dell’utente e la risposta finale. Spesso, l’AI sceglie una fonte non perché sia la più famosa, ma perché è quella che meglio si presta a essere frammentata e ricomposta in una risposta sintetica.
Adotta la tecnica della modular content structure. Invece di lunghi paragrafi narrativi, utilizza una struttura a micro-moduli indipendenti. Ogni paragrafo deve avere un’unità di senso compiuta che risponda a una specifica micro-intent;
Utilizza il “question-answer pairing” all’interno del corpo del testo, ma in modo avanzato. Non limitarti alle FAQ in fondo alla pagina. Integra definizioni tecniche (Glossary Injection) direttamente nel flusso. Se l’AI deve spiegare un concetto complesso, userà la tua definizione perché è già pronta per essere estratta (extraction-ready). Stai essenzialmente fornendo all’LLM il “boccone” già masticato, aumentando drasticamente le probabilità di essere la fonte citata.
Ogni sezione del tuo articolo deve essere “autoconsistente”. Un bot dovrebbe poter leggere solo il paragrafo 3 e capire esattamente di cosa stiamo parlando, senza aver bisogno del paragrafo 1 e 2.
Usa la sintassi semantica forzata. Invece di usare pronomi (”Questo sistema permette di...”), ripeti l’entità principale (”Il sistema di raffreddamento criogenico X permette di...”). Può sembrare ripetitivo per un umano, ma per un sistema di Retrieval che lavora su frammenti isolati, è la differenza tra essere l’autorità citata o essere scartati perché il “chunk” era ambiguo. Ricorda: scrivi per essere frammentato e ricomposto.
Il tuo team deve passare da essere una "redazione" a essere un "laboratorio di ricerca e sviluppo editoriale". Ogni pezzo che pubblichi deve avere l'ambizione di diventare la citazione standard per quel micro-argomento.
La ricerca è diventata una conversazione sintetica.
Questo è Remarks. Il Touchpoint digitale di Catobi.
Se ti fa piacere continuare a parlare di questi temi, basta scrivermi →
In questo canale offriamo spazio, attraverso varianti pubblicitarie, al racconto dell’innovazione dei nostri Partner, e veicolando il contenuto su tutte le nostre piattaforme, comprese LinkedIn, Instagram e Telegram.
Qui tutte le informazioni su come sponsorizzare gli episodi della newsletter→






