Utenti sintetici e altre cazzate: perché chiedere a ChatGPT di fingere di essere il tuo cliente è come chiedere al gatto un parere sul logo

C’è un momento nella vita di ogni designer in cui, schiacciato dalle deadline e con il budget ricerca ridotto a zero virgola niente, si siede davanti a ChatGPT e scrive: “Comportati come Maria, 45 anni, responsabile marketing di una PMI del Nord Italia, e dimmi cosa pensi di questa interfaccia.”

E ChatGPT risponde. Risponde benissimo, pure. Ti dà feedback articolato, coerente, con tanto di suggerimenti costruttivi che manco il tuo miglior cliente nella vita reale. A quel punto pensi: “Ma scusa, perché spendo soldi per testare con persone vere quando posso farmi dire le stesse cose da un’intelligenza artificiale che non si lamenta, non arriva in ritardo e non mi chiede se il parcheggio è incluso?”

Ecco, fermati. Fermati subito. Perché quello che hai appena fatto non è ricerca. È fan fiction.

Il fenomeno degli utenti sintetici (ovvero: quando il pigro incontra il tecnologico)

Il concetto è semplice e seducente come una pizza surgelata quando hai fame alle undici di sera: invece di reclutare utenti veri, fargli fare test di usabilità, pagarli, organizzare sessioni, trascrivere interviste e tutto quel meraviglioso circo che ci fa odiare la fase di ricerca, chiedi all’AI di interpretare i tuoi utenti.

“Fingiti un utente over 60 che usa l’app per la prima volta.” “Simula il comportamento di un millennial che odia compilare form.” “Fai finta di essere daltonico e dimmi se l’interfaccia funziona.”

Sembra geniale. Ed è esattamente il tipo di scorciatoia che, come diceva mia nonna, ti fa fare la strada più lunga. O come direbbero a Palermo: Cu accurza allonga e cu allonga accurza.

Il problema: l’AI è un attore mediocre che recita benissimo

Pensa a quei film dove un attore hollywoodiano interpreta un italiano e parla con un accento che è un misto tra Super Mario e un cameriere di un ristorante turistico a Times Square. Tecnicamente sta parlando italiano. Nella pratica, qualsiasi italiano lo guarda e pensa “ma che cazzo ha detto?”

Ecco, ChatGPT che interpreta il tuo utente è esattamente quella roba lì. Produce risposte che suonano plausibili, che hanno la struttura giusta, le parole giuste, persino il tono giusto. Ma sotto la superficie non c’è niente. È una proiezione statistica di come le persone mediamente parlano, non come una persona specifica pensa. Se fate esaminare questo blog all’ai vi dirà che è geniale.

Jake Knapp – quello che si è inventato il Design Sprint, mica il barista sotto casa – l’ha detto in modo brutale: se usi personas generate dall’AI per prendere decisioni di prodotto, stai basando il tuo lavoro su una fan fiction statistica. Fan fiction. Come quelli che scrivono storie su Draco Malfoy che si innamora di Hermione: tecnicamente i personaggi sono quelli, ma la storia è completamente inventata.

Ma perché le persone vere sono insostituibili? (Spoiler: perché sono dei casini ambulanti)

E qui arriviamo al punto che nessun prompt engineer del mondo potrà mai risolvere: gli esseri umani sono gloriosamente irrazionali.

Le persone mentono nei sondaggi. Non per cattiveria, per una cosa che gli psicologi chiamano desiderabilità sociale – cioè rispondono quello che pensano tu voglia sentirti dire, come quando il tuo amico ti chiede se gli sta bene quella camicia orrenda e tu dici “sì, molto carina” perché non vuoi rovinare la serata. Dicono una cosa e ne fanno un’altra. Hanno contraddizioni, bias cognitivi, comportamenti che cambiano in base al contesto.

Un utente vero ti dice “non userei mai una funzione così” e poi, nel test di usabilità, è la prima cosa che clicca. Un utente sintetico AI ti dà risposte coerenti, logiche, statisticamente perfette. E completamente inutili.

C’è un esempio perfetto nel manifesto “AI Design – Oltre le mode e i luoghi comuni” di UX.Boutique che ho avuto modo di leggere oggi che illustra la differenza. Un utente sintetico ti scrive: “Trovo frustrante quando l’app si blocca durante il checkout.”

Pulito, ordinato, perfetto per una slide di PowerPoint.

Un utente vero invece ti racconta: “Guarda, l’altra sera ero in metropolitana, stavo comprando i biglietti del cinema, l’app si è bloccata proprio mentre stavo inserendo la carta, ho perso la promozione e alla fine non ci sono più andato. Tre giorni dopo l’app mi manda una notifica ‘completa il tuo acquisto’. Ma davvero?”

La seconda è ricerca. La prima è letteratura. La seconda è piena di contesto, emozione, dettagli che nessuna AI avrebbe mai generato. Il fatto che era in metro (connessione instabile?), che c’era una promozione a tempo (urgenza + frustrazione), che la notifica tre giorni dopo ha trasformato l’irritazione in rabbia. Questa roba non la trovi in nessun dataset. Per questo motivo Google chiede ai rater delle sue campagne pubblicitarie di non usare assolutamente l’ai.

L’AI è addestrata sulla media, ma l’innovazione viene dai margini

C’è un altro problema che mi sta particolarmente a cuore. L’AI è addestrata sulla media. Su quello che la maggior parte delle persone fa, dice, pensa. Ma le scoperte più interessanti nella ricerca utente vengono quasi sempre dai casi anomali. Da quell’utente che usa il tuo prodotto in un modo che non avevi minimamente previsto. Da quella signora di 70 anni che ha trovato un workaround geniale per aggirare un problema di UX che il tuo team non aveva nemmeno identificato.

Un utente sintetico non farà mai niente di imprevisto. Per definizione. È come giocare a scacchi contro un’AI impostata sul livello facile: le mosse sono tutte prevedibili, e tu non impari niente di nuovo.

“Ok, ma allora l’AI nella ricerca non serve a niente?”

Calma. Non sono qui a fare il luddista che vuole spaccare i telai (eh?) L’AI nella ricerca serve, eccome. Ma serve nel modo giusto, non come scorciatoia per saltare il lavoro vero.

Hai fatto 50 interviste e devi trovare i pattern ricorrenti? L’AI è perfetta per quello. Devi generare ipotesi da testare poi con utenti reali? Ottimo, fatti suggerire 20 possibili criticità e vai a verificare le prime 5 con persone in carne e ossa. Devi preparare il tuo team prima di andare in campo? Usa gli utenti sintetici per allinearvi su cosa cercare, come una specie di prova generale prima dello spettacolo.

Ma il momento in cui prendi una decisione di design basata su quello che ChatGPT-in-modalità-Maria-45-anni ti ha detto, sei ufficialmente nella zona del pericolo. Quella zona dove il progetto sembra andare benissimo finché non lo metti davanti a un essere umano vero e scopri che avevi costruito tutto su delle sabbie mobili.

Il test che dovresti farti ogni volta

C’è una regola tanto semplice quanto spietata, sempre dal manifesto di UX.Boutique: se stai per prendere una decisione basata su dati AI, chiediti “Sarei disposto a difendere questa scelta di fronte a un utente reale che mi dice che ho sbagliato?”

Se la tua risposta è “beh, l’AI ha detto che…”, hai un problema. È come andare dal dottore e dirgli “ho cercato su Google e secondo me ho il morbo di Creutzfeldt-Jakob” – il dottore ti guarderà con la stessa pietà con cui un utente vero guarderebbe le tue personas generate da ChatGPT.

Se invece la tua risposta è “ho parlato con 12 utenti che mi hanno confermato questo”, sei al sicuro. Non perché 12 persone non possano sbagliarsi, ma perché almeno hai lavorato con dati veri, emozioni vere, contraddizioni vere.

La morale della favola

L’AI può suggerire. Solo gli umani possono confermare. E il giorno in cui ci dimenticheremo di questa distinzione sarà il giorno in cui inizieremo a progettare prodotti per utenti che non esistono – il che, se ci pensi, è la definizione perfetta di come buttare soldi dalla finestra con stile.

La pigrizia è il nemico. Non l’AI. L’AI è uno strumento potentissimo che può renderti un designer migliore o un designer più veloce nel fare cazzate. La scelta, come sempre, è tua.

Crediti: Questo articolo prende largamente spunto dal manifesto “AI Design – Oltre le mode e i luoghi comuni, dentro il processo UX UI” di UX.Boutique, un ebook gratuito che analizza in modo critico e pratico l’uso dell’AI nel processo di design. Se lavorate nel settore, fatevi un favore e leggetelo.

P.S. Se questo articolo ti ha fatto sentire chiamato in causa perché proprio ieri sera hai chiesto a ChatGPT di “fingersi un utente dislessico e valutare la leggibilità del tuo sito”, non preoccuparti: il primo passo è ammettere di avere un problema. Il secondo è chiudere quella chat e chiamare una persona vera. Anche tuo cugino va bene – almeno lui, quando non capisce qualcosa, te lo dice con una faccia che vale più di mille analisi.

Autore:

/

Tag:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *