Era il primo gennaio 2023 quando mi sono cimentato per la prima volta con Midjourney. All’epoca sembrava di stare nel laboratorio di uno scienziato pazzo: ore a modificare prompt, generare variazioni che stravolgevano tutto, bestemmiare in aramaico antico perché il tizio nella foto aveva sette dita e un occhio sulla fronte. Roba che manco Picasso nel suo periodo più allucinato.
Oggi? Oggi qualunque semi-analfabeta digitale può scrivere “fammi un gatto astronauta in stile Pixar” e ottenere risultati che due anni fa avrebbero richiesto una laurea al MIT e un patto col demonio. È un po’ come quando nei primi anni 2000 per scaricare un film dovevi essere praticamente un hacker, e oggi tua nonna usa Netflix meglio di te.
Il momento in cui ho sentito un brivido lungo la schiena
L’altro giorno stavo lavorando a uno dei tanti calendari creativi per i miei clienti. Sì, sono una delle cose più richieste, tipo la carbonara della grafica: tutti la vogliono, pochi la fanno bene, e c’è sempre qualcuno che ci mette la panna.
Mi piace creare questi prodotti anche se spesso il budget non è esattamente da blockbuster hollywoodiano – siamo più sul livello “film italiano con Massimo Boldi”, per intenderci. Ma va bene così, ci si arrangia.
Ed è proprio mentre mi arrabattavo con questo progetto che è successo l’impensabile: il cliente mi manda delle idee alternative per uno dei soggetti. Fin qui tutto normale, penserete. Il plot twist? Le aveva fatte con ChatGPT.
Non vi nascondo che, guardandole, ho pensato: “Cazzo, non sono neanche male”.
E lì ho sentito qualcosa. Un brivido. Come quando Frodo si rende conto che Gollum non vuole solo fargli da guida, ma anche rubargli l’anello e buttarlo nella lava. Solo che in questo caso l’anello è il mio lavoro e Gollum è un’intelligenza artificiale che migliora ogni tre settimane.
Il superpotere che (forse) ci resta
Ora, mettiamo le cose in prospettiva. L’esecuzione “semplice” – il logo veloce, il bigliettino da visita, il fotomontaggio da quattro soldi – questa roba l’AI la fa già benino oggi. Tra due anni probabilmente la farà meglio di noi. È come quando sono arrivati i navigatori GPS e i tassisti che si vantavano di “conoscere tutte le strade a memoria” hanno dovuto improvvisamente trovare altri argomenti di conversazione.
Ma ecco la parte interessante della mia esperienza col cliente: quello che mi aveva proposto era completamente sbagliato a livello concettuale. Tipo, stonava col resto del calendario come un assolo di cornamusa in mezzo a un pezzo dei Daft Punk. Lui però non se ne rendeva conto. Per lui era bello così.
E qui sta il punto: il nostro superpotere, almeno per ora, è la creatività. Non quella da prompt “fammi qualcosa di figo”, ma quella vera. La capacità di unire i puntini tra idea, esecuzione e stile, mantenendo quella coerenza che si confà a un brand. È la differenza tra cucinare seguendo una ricetta di TikTok e capire perché certi ingredienti stanno bene insieme mentre altri fanno a pugni come Oasis in uno studio di registrazione.
Il designer come traduttore simultaneo di concetti
Pensatela così: l’AI è come quel tizio che conosce tutte le parole del dizionario ma non sa tenere una conversazione. Può sfornare immagini tecnicamente perfette, ma non capisce perché quel particolare stile grafico funziona per un brand di cosmetici bio e non per una concessionaria di trattori.
Il cliente che mi ha mandato le sue proposte ChatGPT-generated era convinto di aver trovato la soluzione. E in un certo senso aveva ragione: quella singola immagine, presa da sola, funzionava. Il problema è che il design non è una collezione di singole immagini fighe messe insieme a caso, tipo la playlist shuffle di Spotify quando sei ubriaco. È un ecosistema, una narrazione, un linguaggio coerente.
Ed è questo che ancora non si può automatizzare: la visione d’insieme. Il saper dire “no, questo non funziona” non perché sia brutto, ma perché tradisce tutto il resto del progetto. È come mettere un finale happy ending a un film di Lars von Trier – tecnicamente puoi farlo, ma stai sbagliando tutto.
E quindi? Siamo fottuti o no?
La risposta onesta è: dipende. Se il tuo valore aggiunto era fare loghi veloci e fotomontaggi basic, sì, probabilmente è il momento di diversificare il portfolio (o di aprire un bar, che almeno i cocktail l’AI non li sa ancora preparare).
Ma se il tuo valore sta nel pensiero strategico, nella capacità di costruire un’identità visiva coerente, nel saper dire al cliente “guarda, quello che hai fatto con ChatGPT è carino, ma ecco perché non funziona nel contesto del tuo brand”… beh, allora hai ancora un po’ di strada davanti.
Il trucco è smetterla di competere con l’AI sull’esecuzione e iniziare a posizionarsi come quelli che sanno cosa chiedere all’AI. È un po’ come essere un regista invece che un cameraman: non devi per forza saper usare ogni pulsante della telecamera, ma devi sapere cosa vuoi ottenere.
Certo, tra qualche anno magari anche questa distinzione sparirà. Ma nel frattempo, godiamoci il fatto che i clienti hanno ancora bisogno di qualcuno che gli dica “no, il gatto astronauta in stile Pixar non c’entra un cazzo col tuo calendario aziendale di consulenza fiscale”.
P.S. Se questo articolo ti ha fatto venire voglia di controllare quanto Midjourney sia migliorato dall’ultima volta che l’hai usato, non preoccuparti: siamo tutti sulla stessa barca. Una barca che sta lentamente venendo progettata da un’intelligenza artificiale, ma ehi, almeno per ora siamo ancora noi a decidere dove andare. Forse.

Lascia un commento