CRO · A/B testing · Landing page Settore: SaaS B2B

A/B testing su landing page SaaS B2B: conversion rate da 1,2% a 3,1%

Una landing page con traffico organico e paid consistente ma conversion rate ferma all'1,2%. Otto settimane di A/B testing strutturato su headline, form e CTA hanno portato la conversion rate al 3,1%, con +158% di lead qualificati a parità di budget pubblicitario.

Case study — CRO, A/B testing, Landing page — A/B testing su landing page SaaS B2B: conversion rate da 1,2% a 3,1% — settore SaaS B2B — risultato +158% — Marco Pappalardo consulente digitale B2B
+158%
Lead qualificati generati a parità di traffico
1,2% → 3,1%
Conversion rate landing page (da baseline a risultato)
8 settimane
Dalla prima ipotesi alla variante vincente implementata

Contesto del progetto

SaaS B2B con traffico esistente e conversioni che non decollano

Il cliente e la situazione di partenza

Piattaforma SaaS B2B in ambito gestione operativa, con un ciclo di vendita medio di 30-45 giorni e ticket medio superiore ai 3.000€ annui. Il traffico sulla landing page principale era circa 2.800 sessioni/mese, proveniente per il 55% da campagne Google Ads e per il 45% da SEO organico. La conversion rate si attestava all'1,2% — un valore che, nel contesto B2B con ciclo di vendita lungo, stava erodendo l'efficienza del budget media.

L'obiettivo non era aumentare il traffico, ma aumentare il numero di trial e richieste demo generate dallo stesso traffico. Ogni punto percentuale di conversion rate recuperato equivaleva a 28 lead/mese in più, senza aumentare il budget Ads.

SaaS B2B Gestione operativa 2.800 sessioni/mese Baseline: 1,2% CVR Ciclo vendita 30-45 gg

Vincoli e punto di partenza tecnico

La landing page era costruita su WordPress con Elementor. Il form di conversione richiedeva 7 campi, inclusi telefono e dimensione aziendale, e non aveva micro-copy di supporto. La pagina non aveva heatmap né session recording attivi — i dati disponibili erano solo Google Analytics 4 con eventi di base. Nessun test precedente era mai stato condotto.

Il primo intervento non è stato il test: è stato il setup del tracciamento. Senza dati comportamentali, qualunque ipotesi sarebbe stata pura intuizione.

WordPress + Elementor Google Analytics 4 Google Ads Form: 7 campi Zero heatmap

Diagnosi prima del test

Quattro problemi critici identificati prima di toccare la pagina

Prima di progettare qualsiasi variante, il lavoro è stato diagnostico: analisi del funnel in GA4, setup Hotjar per heatmap e session recording, verifica del tracciamento degli eventi di form, analisi delle query di ricerca che portavano traffico. Quattro problemi sono emersi con chiarezza.

Headline non corrispondente all'intento di ricerca

Le query che portavano traffico organico erano orientate al problema operativo ("gestione commesse team distribuiti", "software operativo campo ufficio"). La headline della pagina parlava di "piattaforma cloud enterprise" — un linguaggio da prodotto, non da soluzione al problema. L'utente arrivava dalla ricerca con un problema specifico e trovava un posizionamento di prodotto che non rispecchiava le sue parole.

Form con 7 campi obbligatori e zero micro-copy

Il session recording mostrava che il 68% degli utenti che iniziavano a compilare il form abbandonava al terzo o quarto campo. Il campo "dimensione aziendale" — richiesto dal team sales per la qualificazione — era il punto di abbandono più frequente. Non c'era nessun testo di contesto che spiegasse perché veniva richiesto o come sarebbero stati usati i dati.

CTA generica e non collegata al valore immediato

Il testo della CTA principale era "Inizia ora". In un contesto B2B con ciclo di vendita lungo, "inizia ora" non comunica cosa succede concretamente dopo il click. L'utente non sa se riceverà una demo, un accesso diretto, una telefonata o una email generica. L'ambiguità della CTA riduceva la spinta all'azione.

Social proof posizionata sotto la fold, invisibile al 70% degli utenti

Le heatmap mostravano che il 70% degli utenti non scorreva oltre il 50% della pagina. I loghi dei clienti, le recensioni e il case study numerico erano posizionati nella seconda metà — raggiungibili solo da chi era già motivato a leggere. Chi non scorreva non vedeva mai la prova sociale che avrebbe potuto ridurre la sua esitazione.

Come abbiamo lavorato

A/B testing strutturato: un'ipotesi alla volta, dati prima delle opinioni

Il metodo non è stato "cambia tutto e vedi cosa succede". Ogni test ha isolato una variabile, ha avuto una durata minima predefinita basata sul traffico reale e si è concluso solo al raggiungimento della significatività statistica al 95%.

Setup tracciamento e baseline dati (settimana 1)

Installazione Hotjar per heatmap, scrollmap e session recording. Configurazione eventi GA4 per tracciare start form, abandon per campo, submit e thank-you page. Audit del codice di tracciamento esistente — erano presenti duplicazioni e un evento di conversione configurato sulla pagina errata, che sovrastimava il CVR reale (il CVR effettivo era 1,2%, non il 2,1% che GA4 riportava). Correzione del tracciamento come primo intervento prima di qualsiasi test.

Test 1: headline (settimane 2–4)

Ipotesi: una headline orientata al problema dell'utente produce più conversioni di una headline orientata al prodotto. Variante A (controllo): "La piattaforma cloud enterprise per la tua azienda". Variante B: "Tieni connessi ufficio e cantiere senza perdere nemmeno un aggiornamento". Il test è durato 3 settimane — il tempo necessario per raggiungere 200 conversioni per variante. Risultato: variante B +34% conversioni. La nuova headline è stata implementata come baseline per i test successivi.

Test 2: riduzione form da 7 a 4 campi (settimane 4–6)

Ipotesi: rimuovere i campi telefono, dimensione aziendale e ruolo riduce la frizione senza impattare negativamente la qualità dei lead. Variante A (controllo): 7 campi. Variante B: 4 campi (nome, cognome, email aziendale, nome azienda) con testo di supporto "Il team ti contatterà entro 24 ore per una demo personalizzata". Accordo preventivo con il team sales: i dati mancanti sarebbero stati raccolti durante la call di qualificazione. Risultato: variante B +51% CVR, qualità lead invariata secondo il team sales dopo 30 giorni di follow-up.

Test 3: CTA e social proof above the fold (settimane 6–8)

Due variazioni in parallelo su elementi non correlati: testo CTA da "Inizia ora" a "Prenota la tua demo gratuita" e spostamento di tre loghi clienti + una metrica di proof ("Usato da 120 team in Italia") nella sezione above the fold. L'approccio multivariate è stato giustificato dalla necessità di accelerare i test — con il traffico disponibile, due test sequenziali avrebbero richiesto altre 6 settimane. Risultato cumulativo delle tre variazioni: CVR finale al 3,1%.

Risultati misurabili

Da 1,2% a 3,1%: +158% lead qualificati senza toccare il budget media

I risultati sono stati misurati a 30 giorni dall'implementazione completa delle varianti vincenti, con confronto rispetto allo stesso periodo dell'anno precedente per escludere la stagionalità.

3,1%
Conversion rate finale (da 1,2% baseline) — significatività statistica 97%
+158%
Lead qualificati mensili a parità di traffico e budget pubblicitario
−42%
Costo per lead (CPL) su Google Ads — da 68€ a 39€ per lead qualificato
−68%
Tasso di abbandono del form (da 68% a 21% degli utenti che iniziavano la compilazione)
+34%
CTR above the fold stimato da heatmap — click sulla CTA primaria rispetto al controllo
Invariata
Qualità dei lead secondo il team sales — tasso di qualificazione identico con meno campi nel form

Stack tecnico

Strumenti usati nel progetto di A/B testing e CRO

Google Optimize
A/B testing e multivariate test
Hotjar
Heatmap, scrollmap, session recording
Google Analytics 4
Funnel tracking e analisi conversioni
Google Ads
Fonte traffico paid e misurazione CPL
WordPress + Elementor
Implementazione varianti vincenti
Looker Studio
Dashboard reporting settimanale condivisa con il cliente
Evan Miller Calculator
Calcolo dimensione campione e significatività statistica
Google Tag Manager
Gestione eventi e trigger senza deploy continui

Cosa abbiamo imparato

Tre principi che si replicano su qualsiasi landing page B2B

Il tracciamento viene prima del test. Il CVR reale era 1,2%, non il 2,1% che GA4 riportava per via di un evento configurato male. Senza correggere il tracciamento, avremmo misurato miglioramenti su una baseline falsa — e avremmo concluso i test troppo presto. Ogni progetto CRO inizia con un audit del tracciamento, non con la prima variante.

Ridurre i campi del form non riduce la qualità dei lead. È la convinzione più comune che blocca la form optimization in B2B. In questo caso, il team sales ha confermato che la qualità dei lead era invariata dopo 30 giorni. La qualificazione avviene nella prima call, non nel form — il form serve solo a generare l'opportunità di quella call.

La headline orientata al problema batte sempre quella orientata al prodotto. Il prodotto descrive cosa fai. Il problema descrive cosa risolvi. Chi cerca una soluzione parte dal problema, non dal prodotto — quindi la landing page deve incontrare l'utente nel linguaggio del problema, non in quello del marketing di prodotto. Questo vale doppio quando il traffico viene da query di ricerca informazionali.

Domande frequenti

A/B testing e conversion rate optimization: le domande più comuni

Cos'è l'A/B testing e come funziona su una landing page?

L'A/B testing è una metodologia che mette a confronto due versioni di una pagina — o di un singolo elemento — per misurare quale produce più conversioni. Il traffico viene diviso in modo casuale tra variante A (controllo) e variante B (trattamento). Il test viene dichiarato concluso quando si raggiunge la significatività statistica, generalmente al 95%. Su una landing page, i principali elementi da testare sono: headline, sottotitolo, CTA, lunghezza e struttura del form, social proof e ordine delle sezioni.

Quanto traffico serve per un A/B test valido su una landing page B2B?

Per un A/B test statisticamente valido su una landing page B2B con baseline conversion rate dell'1-2%, servono indicativamente 500-1.000 conversioni totali per variante. Con traffico limitato, si riduce il numero di varianti, si allunga la finestra del test o si concentra l'ipotesi sugli elementi con impatto atteso maggiore — headline e CTA prima di tutto. Strumenti come il calcolatore di Evan Miller permettono di stimare la durata minima in base al traffico reale.

Qual è il primo elemento da testare in una landing page che non converte?

Il primo elemento da testare è la headline above the fold: determina se l'utente capisce immediatamente il valore della proposta. Se la headline è chiara ma il form ha alto tasso di abbandono, il secondo elemento è il numero di campi del form — ridurre da 7 a 3-4 campi aumenta tipicamente le conversioni del 30-50% in contesti B2B. La CTA viene testata per terza, dopo aver risolto i problemi a monte.

Conversion rate optimization e A/B testing sono la stessa cosa?

No. La conversion rate optimization (CRO) è il processo complessivo che include analisi del comportamento degli utenti, identificazione dei punti di attrito, progettazione delle ipotesi e misurazione dell'impatto. L'A/B testing è uno degli strumenti della CRO — il più diffuso per validare ipotesi su elementi specifici. La CRO include anche heatmap, session recording, analisi del funnel e ottimizzazione tecnica della velocità di caricamento.

La tua landing page ha traffico ma non converte?

Il primo passo è capire dove si perde valore nel funnel — non cambiare elementi a caso. Una call di 45 minuti permette di valutare il tracciamento esistente, identificare i punti di attrito prioritari e stimare il potenziale di miglioramento realistico.