Il termine Vibe Coding è ormai arrivato all’onore delle cronache nelle pagine dei media generalisti, mentre i continui annunci delle big tech sull’intelligenza artificiale generativa ci raccontano di come ormai qualsiasi creazione di un artefatto software, grafico, video etc. è a portata di un prompt.

Dal punto di vista tecnologico e delle possibilità è un fatto innegabile. Ma è davvero tutto così lineare e, soprattutto, privo di frizioni?

In realtà, in questa evoluzione convivono due forze in apparente contrasto: la semplicità con cui certe attività possono essere svolte grazie alla tecnologia e la complessità che cresce di giorno in giorno, ed è un tema che parte da lontano.

Non a caso ne avevo parlato nel primo capitolo del mio libro Marketing Technologist, e per questo parto proprio da un estratto di quelle pagine (la stesura è stata fatta nella seconda parte del 2019) per il mio ragionamento.

UN PICCOLO VIAGGIO NELLA DEMOCRATIZZAZIONE DELLA TECNOLOGIA

Prendo come caso paradigmatico e di lunga data la costruzione delle pagine online, che dalla fine degli anni Novanta costituiscono un nucleo fondamentale della presenza digitale di un brand e di un individuo.

Gestire un sito web è stato fin dal primo giorno qualcosa di democratico in termini astratti, perché nulla vietava a chiunque di poter registrare un dominio e costruirci sopra un sito per procurarsi una visibilità che ai blocchi di partenza era teoricamente equivalente a quella di un grande brand, al netto poi della notorietà e degli investimenti pubblicitari.

Per esperienza diretta posso dire però senza alcun dubbio che all’inizio di questo millennio pubblicare qualsiasi cosa su Internet richiedeva capacità tecniche di scrittura in HTML, dimestichezza con un programma FTP per caricare i materiali fisicamente di un server, capacità di ritoccare le immagini o almeno di manipolarle in termini di peso e formato perché fossero adatte ad un uso sul web, per non poi parlare del lavoro di codifica complesso da fare sui (rari) video visibili online. Per fare una pagina web all’inizio degli anni 2000 bisognava compilarla in l’HTML (HyperText Markup Language), a mano o con l’aiuto parziale di un rudimentale programma editor, salvarla nel proprio computer con un nome ben preciso e poi caricarla in uno spazio web (server) attraverso un programmino che sfrutta un altro protocollo web chiamato FTP (File Transfer Protocol) e che all’epoca non era grafico e richiedeva la digitazione di specifici comandi testuali. La stessa cosa si doveva fare con le immagini, dopo averle portare ad un peso in KB e un formato idoneo alla pubblicazione sul web, pubblicazione che avveniva poi grazie all’inserimento di specifici comandi (tag) da posizionare nella pagina web nel punto in cui si voleva farla comparire.

Un esempio di sorgente HTML

Già poco tempo dopo però le piattaforme di CMS (content management system), specie quelle di blogging, hanno iniziato a permettere di usare editor online semplificati che non richiedevano all’utilizzatore di sapere scrivere codice, agendo su di un programma di composizione guidata per inserire e formattare i testi e posizionare le immagini. Di certo questo ha rappresentato un passo utile a favorire la pubblicazione di contenuti da parte di un maggior numero di persone private e dotate di capacità di scrittura piuttosto che di programmazione (anche in questo caso però il primo setup e molte altre operazioni erano ancora per un pubblico in grado di manipolare la tecnologia con una certa disinvoltura)

Al giro di boa del primo decennio degli anni 2000 i diversi social media hanno poi sdoganato in modo definitivo e quasi universale la capacità di pubblicare contenuto per chiunque di fatto sappia scrivere su di una tastiera, dimenticando in larga parte qualsiasi altro tema di scelta del dominio web, di valutazione di quale sia l’hosting migliore e molte altre tecnicalità varie a favore dell’apertura di un profilo Twitter, di una pagina Facebook, di un canale YouTube con pochi click e la scelta di un nickname.

Un passaggio che ha di nuovo messo il singolo privato ad un livello di competizione quasi paritaria con un grande brand, riducendo praticamente a zero le differenze in termini di costi di setup ed infrastrutturali necessari all’avviamento del progetto.

Ancora, ben presto la diffusione del mobile web ha reso possibile fare tutto questo in mobilità e in tempo reale, senza dover accedere a un pc o scaricare immagini da una fotocamera, già diventata digitale nel frattempo, per poterle pubblicare.

Infine Instagram ha insegnato a chiunque a ritoccare le proprie foto in punta di dita con filtri e composizioni, mentre poco prima YouTube aveva reso possibile pubblicare online i propri video con grande facilità e una compatibilità praticamente universale di visualizzazione, anche da un cellulare (nel frattempo l’avvento dei backup in cloud hanno reso accessibili in modo trasparente i file attraverso vari dispositivi in modo automatico e praticamente in tempo reale).

Mi piace farvi notare che molta parte di quanto avviene dietro le quinte di tutte queste attività è ancora lo stesso lavoro di creazione di pagine, di html, di caricamento sui server etc., solo che tutti questi compiti si svolgono dietro delle semplici maschere grafiche (e ora dei prompt) che lanciano i processi, rendendo tutto molto più facile e democratico.

Queste accessibilità facilitata ha toccato prima l’esperienza dell’individuo come privato ma poi con un po’ di ritardo è andata contagiando anche le organizzazioni aziendali, dipartimenti di marketing e comunicazioni inclusi; onestamente, chi non abbia iniziato a fare attività lavorative che comprendessero un uso diretto della tecnologia all’inizio dell’attuale millennio difficilmente può razionalizzare quanto sia stata veloce, trasformativa ed entusiasmante questa crescita vista da una prospettiva aziendale.

E quanto essa si sia complicata nel rapporto tra Own, Earned e Paid media, di cui ho parlato già diversi anni fa qui, rispetto a un semplice media monodirezionale. E’ il tema della semplicità apparente, su cui torneremo dopo.

Tra la pubblicazione dei contenuti del libro e lo scenario di oggi si inserisce anche l’avvento delle prime piattaforme di quello che oggi possiamo definire sviluppo low code, che sono sono apparse già attorno al 2011 e che si è iniziato a definirle tali proprio una decina di anni fa, nel 2014.

Quindi, già prima dell’ultima esplosione di AI in grado di scrivere codice, c’erano (e ci sono ancora) milioni di non sviluppatori (“Citizen Developer”) che con strumenti come Airtable, Webflow, Power Automate e Zapier hanno iniziato a costruire le proprie esperienze e operazioni su misura, senza avere un background formale da developer.

Tanto che già nel 2024 secondo quanto riporta Scott Brinker sulla base del rapporto 2024 Work Automation & AI Index di Workato (un’azienda leader nel settore dell’automazione aziendale) il 44% di tutti i processi automatizzati sono realizzati al di fuori dell’IT!

Fonte: rapporto 2024 Work Automation & AI Index di Workato

Ora in poco più di tre anni l’accelerazione è diventata esponenziale. E con essa tutta la complessità ad essa associata.

IL VIBE CODING E LA HYPERTAIL DEL SOFTWARE

Con un breve salto temporale, eccoci nell’era del vibe coding: Andrej Karpathy, esperto di intelligenza artificiale e co-fondatore di OpenAI, ha scritto su X nel gennaio 2023 che «il linguaggio di programmazione più in voga del momento è l’inglese» e ha poi lanciato il termine Vibe Coding sempre su X a febbraio.

Ne ha parlato molto bene anche Alberto Mattiello nel suo podcast “Scenari”, e quindi vi consiglio molto l’ascolto per farvi un’idea più dettagliata del tema.

Che cosa succede però quando chiunque può sviluppare del software senza alcuna nozione tecnica?

Un buon punto di vista viene dal mondo della marketing technology, che essendo uno degli ambiti tecnologici più vicini da sempre a chi non è un professionista del software offre una vista su quanto succederà anche negli altri ambiti.

Nell’evento Martech Day 2025 di Scott Brinker e Frank Riemersma è stato diffuso anche il nuovo State of Martech 2025, un report molto corposo che si può scaricare liberamente e di cui vi consiglio molto la lettura diretta (trovate invece una mia sintesi qui).

Tra le altre cose, si parla della “Long Tail“ in questo tipo di software, una componente storica e ancora rilevante del panorama Martech, e che consiste in:

  • Una piccola parte centrale (“head”) con un numero ridotto di piattaforme principali (spesso di aziende pubbliche con miliardi di dollari di fatturato).
  • Un “torso” con qualche centinaio di leader di categoria (che hanno raggiunto 100 milioni di dollari o più di fatturato annuo).
  • Una “lunga, lunga, lunghissima coda” (“long tail”) di migliaia di applicazioni più specializzate e di nicchia. Questa coda include software per mercati verticali, leader di prodotto regionali, app specifiche per ecosistemi, soluzioni “productized” da fornitori di servizi e startup in fase iniziale e avanzata.
Fonte : Martech 2025

La novità di questa edizione è proprio il concetto di “Hypertail” da vedere come un’espansione che va oltre il tradizionale panorama commerciale della Long Tail, perché non si limita al software venduto sul mercato, ma include il software personalizzato (custom-built software).

Questo concetto aggiunge quindi diversi attori allo scenario:

  • Team IT (software IT-built), con strumenti AI-powered che rendono la scrittura di codice più veloce (spesso del 35-45%).
  • I già citati “Citizen developers“, che in questo ambito sono spesso professionisti delle marketing operations e, sempre di più, utenti esperti (“power users”) per i quali l’ascesa delle piattaforme low-code/no-code negli ultimi 5-10 anni ha reso più facile, veloce ed economico per creare app e automazioni leggere.
  • Agenti AI (agent-built software), che possono sempre più creare direttamente software, creano e eseguono programmi software dietro le quinte, spesso senza che gli utenti ne siano consapevoli, per soddisfare le loro richieste

A causa di questa accelerazione e democratizzazione della creazione di software tramite AI, la Hypertail consisterà “non di milioni ma miliardi di programmi software personalizzati”, probabilmente “trilioni”, molti dei quali “lampeggiano dentro e fuori dall’esistenza su richiesta”.

Tutto bene? Sì e no.

GLI IMPATTI SULLA GOVERNANCE

Questa esplosione di “app” cambierà il modo in cui pensiamo al software e all’economia che lo circonda: poiché così tanti programmi software saranno così facili da creare su richiesta, il software diventerà più usa e getta. Invece del doloroso slogan di mantenere vecchie app e automazioni personalizzate – il problema del “debito tecnologico” che ha afflitto le aziende per decenni – sarà spesso più facile ricreare i programmi da zero.

La grande esplosione di app accelererà e un effetto negativo saranno molte più app e automazioni “zombie” che fluttuano in giro. Programmi software che vengono creati e poi dimenticati, che vagano nell’ombra, mangiano risorse e infestano le organizzazioni con effetti misteriosi di volta in volta (Scott Brinker).

E dobbiamo ricordarci che la tecnologia deve creare valore. Non complessità fine a se stessa. Non sprechi.

In questi giorni ha fatto molto parlare un report del MIT Nanda (Networked Agents and Decentralized AI) dal titolo STATE OF AI IN BUSINESS 2025 in cui si dice che il 95% dei progetti non genera valore reale. Il campione è basato su oltre 300 iniziative AI, 52 interviste aziendali e 153 questionari raccolti in conferenze di settore.

Ma allora ci stiamo prendendo tutti in giro con la rivoluzione AI?

No! Ma bisogna essere consapevoli dei tempi necessari al cambiamento, avere un corretto approccio all’innovazione (con i suoi fallimenti) e guardare oltre la semplificazione della narrativa corrente.

Sicuramente, senza togliere nulla allo straordinario potenziale che abbiamo davanti, siamo mediamente troppo ottimisti circa i tempi e l’attuale maturità della rivoluzione dell’intelligenza artificiale, soprattutto sulla sua velocità di adozione nella realtà per portare dei benefici misurabili.

Già questo pezzo dell’Harvard Business Review era netto in tal senso a causa di 3 bias cognitivi con cui giudichiamo male il cambiamento tecnologico:

Come dice bene Alexio Cassani su Wired, “il rischio più concreto è quello della “saturazione superficiale”: aziende che adottano decine di tool AI senza una strategia coerente, team che passano da una piattaforma all’altra senza mai approfondire realmente le potenzialità di ciascuna, investimenti che si disperdono in soluzioni effimere. Proprio come nel fast fashion, la velocità può diventare nemica della qualità. Soluzioni sviluppate in fretta, senza considerare aspetti cruciali come la privacy dei dati, l’interpretabilità degli algoritmi (cioè che sia comprensibile perché prendono una decisione rispetto ad un’altra) o l’impatto sui flussi di lavoro esistenti, rischiano di creare più problemi di quanti ne risolvano”.

Anche la gestione dei costi non sarà affatto banale. A fine 2024 avevo citato un nuovo modello di “service-as-a-software”, un gioco di parole intelligente sull’acronimo SaaS. Invece di pagare per postazioni o utilizzo di elaborazione/archiviazione, dove spetta all’acquirente utilizzare con successo quegli strumenti per ottenere i risultati desiderati, viene offerta una nuova generazione di agenti AI su base costo-per-risultato.

Fonte: Martech 2025

Già con le soluzioni a consumo del software as a service fare previsioni di spesa è difficilissimo e i vendor hanno complicato in modo drammatico il numero di parametri e criteri che vanno a formare il prezzo.

Se già è dura calcolare correttamente queste metriche e gestire i relativi costi variabili non posso immaginare che sia più facile farlo con gli obiettivi e gli outcomes, anche se almeno questo introduce uno sforzo psicologico di lavorare in modo chiaro e definito su che cosa vogliamo ottenere.

Da un lato quindi bisognerà lavorare all’interno delle organizzazioni dall’altra bisognerà discutere, concordare e, a volte, anche imporre dei meccanismi ai vendor per rendere l’adozione sostenibile economicamente (affatto facile oggi, per essere franchi).

Già nel 2024 avevo parlato in modo chiaro di un nuovo stile di governance, dove al puro controllo si affianca la capacità di informare, supportare, co-creare con un vasto numero di altri soggetti.

Fonte: Gartner

Di recente mi sono spinto anche oltre, sottolineando come le organizzazioni hanno dei bisogni sempre crescenti di cambiare, in meglio, il modo in cui si lavora e tra questi bisogni c’è quello di migliorare le connessioni interne, non di diminuirle a causa della tecnologia, che invece può essere un grande alleato per raggiungere tale obiettivo.

E DUNQUE, QUALI COMPETENZE?

Oggi serviranno progressivamente meno competenze strettamente tecniche ma quelle logiche unite alle competenze di dominio specifico saranno sempre più importanti.

Anche su questo mi viene in soccorso Scott Brinker con il suo blog, da cui ho tratto l’immagine sotto.

Fonte: ChiefMartc.com

La chiave di lettura del grafico sta nel termine “esperti nel loro settore”. Un buon professionista può creare flussi di lavoro programmatici eccellenti con uno strumento di automazione no code o AI, innanzitutto perché comprende profondamente il contesto di ciò che sta costruendo. Non è solo che sono abili nel progettare un flusso logico del programma. Sanno cosa significano effettivamente questi fattori scatenanti e quelle azioni. Sanno quale risultato stanno cercando di ottenere. Sanno cosa può andare storto nel processo aziendale.

Gli strumenti senza codice consentono alle persone con una profonda esperienza nel dominio – e capacità di logica e pensiero programmatico perfettamente precise, il cui unico “difetto” è che non hanno imparato a programmare in Python – di trasformare in modo rapido ed efficiente le loro conoscenze in migliori operazioni digitali e esperienze.

Gli strumenti senza codice possono anche consentire alle persone che non hanno idea di cosa stanno facendo di creare flussi di lavoro e automazioni davvero scadenti? Purtroppo sì. Ma non è molto diverso dal caos che può seminare uno sviluppatore di software che non sa cosa sta facendo. Non confondere sapere come programmare con sapere cosa stai facendo.

Il più grande vantaggio dell’era senza codice è la separazione tra queste due cose.

Tutto ciò richiede anche grande attenzione al linguaggio e alla creazione di una Digital Fluency che diventa sempre più importante, anche a livello di board, con delle professionalità ibride che potrebbero assumere diversi nomi ma alla fine devono riuscire a fare lavorare meglio tutti assieme, sfruttando in questo la tecnologia come un’opportunità e non un vincolo.

Un altro elemento cruciale è il pensiero critico. Come dice Matteo Flora al minuto 11:20 del video sotto, oggi chi forma le nuove generazioni deve essere (ancora di più di oggi) un mentore, un allenatore del modo di ragionare, in modo che ciò che viene generato dagli strumenti generativi sia rivisto in modo costruttivo e il dialogo con le macchine non diventi solo un meccanismo di generazione automatica di risposte.

Conoscere bene le logiche delle cose, ci mette al riparo anche dal rischio di una dipendenza operativa dalla AI (diversa è quella emotiva), per cui diventiamo talmente abituati a ricevere risposte da non essere più in grado di gestire nessuna attività in caso di problemi di infrastruttura di queste tecnologie. Una cosa è automatizzare per velocizzare, una cosa è non sapere più fare le cose (specie per i “nativi AI”).

C’è infine un’ultima dote: la pazienza. La rivoluzione dell’AI non avverrà dall’oggi al domani. Non posso che essere d’accordo con Fabio Lalli che lo spiega molto bene, qui in sintesi su Telegram e poi per esteso nel post Linkedin collegato. Deve esistere ancora nella nostra testa il lungo periodo, anche nell’era dei rilasci continui degli LLM.

English version is available on Medium.com

Ascolta l’overview audio creata con la AI