Moment Of Truth | 03:33 Minuti
Il tuo touchpoint sullo spazio digitale: uno strumento pratico dove troverai idee, riflessioni, conoscenze e framework in grado di guidarti nell’esecuzione della tua innovazione digitale. Testala, è gratis ↓
Buondì, e buon lunedì.
Cerca di rispondere onestamente: quanti A/B testing fai?
Secondo un nuovo studio, i responsabili del marketing dovrebbero essere molto più cauti nell'utilizzare i A/B testing per gli annunci online su piattaforme come Meta e Google, perché un annuncio “vincente” potrebbe derivare dal target a cui viene mostrato e non dalla creatività dell'annuncio stesso.
Stai leggendo una nuova edizione del light format del Remarks.
Oggi parliamo di come:
Lo studio, pubblicato sul Journal of Marketing, ha individuato un difetto chiamato “divergent delivery”, per cui un annuncio può risultare migliore perché un gruppo di utenti è più incline a rispondere ad esso rispetto all'altro gruppo di utenti che hanno ricevuto un test diverso.
I marketer si affidano a una combinazione di metodi per testare l'efficacia dei loro annunci. Il test A/B è emerso come una soluzione comune per trovare l'annuncio online “migliore” in base alla pertinenza, ovvero quello che viene chiamato “servire al pubblico giusto al momento giusto”. Molte campagne si basano sui risultati di questi test, che danno priorità a un annuncio rispetto a un altro.
Però, c’è sempre un “ma”, vediamo dai.
GO↓
🔵 Don’t make!
Perché i test A/B sono importanti.
La natura scientifica di questi test ha portato molti marketer a fare ipotesi sulla validità dei risultati e a basare le decisioni strategiche sui dati. Ma le differenze negli effetti degli annunci A/B “potrebbero non cogliere appieno il vero impatto dei loro annunci su queste piattaforme”, notano gli autori dello studio in una notizia per l'AMA.
In effetti, i test danno “ai marketer un falso senso di sicurezza sulle loro decisioni basate sui dati”, quando la realtà è che gli esperimenti non sono completamente randomizzati e i risultati possono essere viziati al di fuori dei rigidi parametri dei test.
Riassuntino?↓
Referral Program
Se pensi che questo Remarks possa interessare a qualcuno, puoi condividerlo.
L'obiettivo principale di una piattaforma è massimizzare le prestazioni degli annunci, non fornire risultati sperimentali agli inserzionisti.
Il metodo preciso per determinare la pertinenza degli annunci e gli utenti a cui rivolgersi è di proprietà di determinate piattaforme che utilizzano un algoritmo e non è trasparente per gli inserzionisti.
Un annuncio “vincente” può ottenere risultati migliori semplicemente perché l'algoritmo lo ha mostrato a utenti più inclini a rispondere all'annuncio rispetto agli utenti che hanno visto l'altro annuncio.
I responsabili del marketing possono accettare i risultati “confusi” “o investire in metodi più complessi e costosi per comprendere realmente l'impatto degli elementi creativi dei loro annunci”, concludono i ricercatori.
L'articolo dell'AMA contiene consigli specifici su come utilizzare i test A/B.
La tua preoccupazione non dovrebbe essere solo il semplice utilizzo di certi tipi di test A-B. Si tratta piuttosto della presentazione dei risultati come se provenissero da esperimenti equilibrati e delle successive conclusioni e decisioni manageriali basate su tali risultati.
Don’t make too many assumptions!
Questo è Remarks. Il Touchpoint digitale di Catobi. Se ti fa piacere continuare a parlare di questi temi, basta scrivermi → In questo canale offriamo spazio, attraverso varianti pubblicitarie, al racconto dell’innovazione dei nostri Partner, e veicolando il contenuto su tutte le nostre piattaforme, comprese LinkedIn, Instagram e Telegram. Qui tutte le informazioni su come sponsorizzare gli episodi della newsletter→