È un paradosso tipico della nostra epoca: abbiamo in tasca uno strumento più potente del computer che ha portato l’uomo sulla Luna, eppure lo usiamo con la disattenzione di chi sfoglia un giornale che ha trovato in una sala d’attesa (se non sta guardando lo smartphone, ovviamente 😀). La tecnologia corre a velocità supersonica, ma l’alfabetizzazione di base su come usarla, proteggendosi, procede a passo d’uomo.

Questo divario non è un problema teorico; è probabilmente il rischio operativo e personale più grande del nostro tempo.

Il castello di carta: vulnerabilità personale quotidiana

Cosa significa oggi “alfabetizzazione digitale“? Non è saper scaricare un’app, ma saper dubitare.

La maggior parte degli utenti vive una pericolosa illusione di competenza. Le interfacce sono intuitive, il che ci illude di aver capito la complessità sottostante. Aggiungo inoltre che c’è un falso mito sul fatto che i nativi digitali (presto nativi AI?) siano competenti di tecnologia ma la realtà è che sono abituati ad usarla, e c’è un’enorme differenza fra le due cose, come ho già detto altre volte.

Non è solo negligenza ma anche un effetto della velocità e della pervasività dei cambiamenti.

Parlando dell’uso dei social, nel 2013 avevo scritto che l’avvento di un sempre maggior numero di persone aveva comportato per gli early adopters un abbassamento della qualità delle conversazioni e di parte dei contenuti (vi ricorda niente?), ma aveva rappresentato molto più da vicino la realtà sociale del paese, nel bene e nel male (e con le dovute cautele nell’analisi).

In quello stesso post avevo scritto che per molti di questi “nuovi” utenti non c’è stato il tempo di imparare a usare i mezzi e comprenderli, il target più adulto infatti non è entrato a pieno nei meccanismi per ragioni culturali, mentre i più giovani si sono trovati catapultati quasi automaticamente dentro questo mondo multicanale e social, dove la pervasività dei device tecnologici è radicata e sfuma sempre più la percezione del confine fra ciò che è tangibile e ciò che è digitale (sottolineatura: siamo nel 2013 qui).

Per certi versi insomma la diffusione della tecnologia è andata più veloce della sua comprensione già da parecchio tempo.

Questa ingenuità però ha degli impatti estremamente rilevanti sulla sicurezza personale:

  • L’abbandono delle fondamenta: Miliardi di account protetti dalla stessa, identica password. Non attivare l’Autenticazione a Due Fattori (2FA) dove disponibile, che è la prima e più semplice linea di difesa.
  • Il click ingenuo e senza riflessione: La difficoltà nel riconoscere un tentativo di phishing via email o smishing via SMS. Nonostante gli avvertimenti, l’utente medio è ancora il bersaglio più facile per la truffa mascherata da comunicazione urgente della banca o dell’ufficio postale.
  • I consensi inconsapevoli: l’accettazione acritica di termini, condizioni e permessi di app che espongono dati sensibili o fanno uso dei dati creati senza che l’utente si renda conto del valore di ciò che sta regalando.

I primi due punti sono storia di vecchia data, ma il punto è proprio questo: se non abbiamo ancora imparato a difenderci dalle versioni più tradizionali di queste minacce, come possiamo pensare di stare tranquilli ora che l’evoluzione tecnologica può rendere queste trappole molto più sofisticate?

Il terzo punto merita un discorso a parte: anche lui viene da lontano, sono anni che legislatori (e attivisti) e big tech si battono tra loro sulla correttezza e legittimità di termini e condizioni dei tool, oltre che in generale sul concetto delle regole del gioco (basti pensare a questi esempi di un anno fa).

Anche qui però l’evoluzione tecnologica corre molto più, e si sprecano le casistiche di feature che usate in modo superficiale possono essere molto pericolose, come la posizione su Instagram (per ora almeno disattivata di default), la clonazione sempre più facile di volti e voci (ci torniamo poi tra poco) e, in generale, la scarsa comprensione di che cosa si cede agli strumenti quando li usiamo (sotto un video recente sul tema, qui si parla di AI, ma ne trovate molti altri in rete).

Su questo scenario si innesta poi l’avvento dirompente dell’intelligenza artificiale generativa come strumento democratico in mano a tutti.

L’ascesa dei deepfake: la crisi della fiducia (e un’altra spallata al senso critico)

Oggi non basta più riconoscere una password rubata o un’email scritta male. Siamo entrati nell’era degli AI Slop (qualcuno la chiama slopocene): grandi quantità di contenuti audio, video o persino documenti creati in modo iper-realistico grazie all’Intelligenza Artificiale di bassa qualità concettuale ma lucrativi per chi li produce. Per non parlare della disinformazione mirata e dei Deepfake sempre più sofisticati.

Da questo punto di vista non è molto rassicurante commentare il lancio di Sora 2 di OpenAi, che mischia un tool (molto potente) di creazione video attraverso un’apposita app con un concetto di social media popolato di cloni. A ruota è arrivata poi Meta, con il suo Vibes. E questo solo per citare i tool più democratici e (presto) accessibili a grandi numeri di persone.

La cosa che lascia un grande punto di domanda è che degli strumenti così sofisticati sono stati presentati dai loro stessi ideatori non per creare contenuti professionali ma per generare meme in stile TikTok, per di più pieni di deepfake di persone reali, Sam Altman in testa a tutti.

Tra le caratteristiche di Sora 2 infatti c’è la funzione Cameo, che permette di inserire la propria immagine all’interno delle scene, basta caricare una registrazione video e audio e una volta verificati, si può apparire in qualsiasi scenario generato, da soli o insieme agli amici, e autorizzare altri a usare il proprio volto nei loro video.

Qualcosa che avevamo già visto in passato ma che qui raggiunge livelli pazzeschi e, soprattutto, molto democratici in termini di accesso non appena sarà distribuita a un pubblico più vasto, perché non serve davvero alcuna competenza spinta.

E’ chiaro che una nuova tecnologia, specie nei primi giorni, viene messa alla prova e giocando si fanno le cose più assurde, ma quando sono i suoi creatori a indicare questa via, non dovremmo essere un po’ preoccupati?

Sì dovremmo.

Il deepfake è l’arma definitiva per l’ingegneria sociale, e la scarsa alfabetizzazione degli utenti in merito lo rende incredibilmente efficace.

In questo scenario, l’alfabetizzazione non è più una competenza operativa (saper usare), ma una competenza difensiva (saper distinguere e dubitare). La mancanza di alfabetizzazione critica ci rende vulnerabili a ciò che non possiamo più distinguere solo con l’occhio umano e ci espone a truffe e altri rischi.

Ma c’è un aspetto ancora peggiore, secondo me, di quello della sicurezza e ha a che fare con un altro tema critico, quello dell’analfabetismo funzionale e del conseguente rischio di polarizzazione.

La mente umana “by design” cerca di difendersi dal carico cognitivo attraverso scorciatoie, euristiche, bias che quindi non sono tutti negativi per definizione e che esistono da sempre nel nostro modo di pensare.

Tuttavia i dati del rapporto Education at glance 2025 OCSE sono allarmanti e quelli del nostro paese lo sono di più dato che dicono che il 37% dei 25-64enni italiani hanno competenze di comprensione e scrittura di testi (literacy) a livello elementare o inferiore (livello 1 su una scala da zero a 5, di fatto il cosiddetto ‘analfabetismo funzionale’), contro la media ocse del 27% (che già non è rassicurante).

Gli stessi laureati, accreditati in media di 19 punti in più rispetto ai diplomati, sono però lontani anche loro dalla media OCSE che è maggiore e si situa a 34 punti.

Ora, on top a questo problema il fatto che tutto sia messo in dubbio per definizione porta al rafforzamento delle proprie bolle digitali. Se vedo qualcosa che non mi piace nemmeno delle evidenze visive mi potranno far cambiare idea perché dirò che è un fake e sicuramente troverò (o nei casi peggiori creerò) qualche artefatto che mi dimostra il contrario.

E questo avviene in un contesto in cui, secondo il Global Risk 2025 Report del World Economic Forum, la polarizzazione sociale resta una delle più grandi minacce dei prossimi due anni, insieme alla disinformazione (lo era già nell’edizione 2024).

Se fin qui poi abbiamo parlato di individui nel loro privato, dobbiamo pensare che queste persone vanno a votare (e qui lascio la parola a questo video) e vanno a lavorare nelle proprie organizzazioni.

Parliamo di questo ultimo punto.

Il freno alla crescita: rischi di sicurezza e tecnologia sottosfruttata

L’errore umano è, statisticamente, il principale vettore di successo per gli attacchi informatici. Un’azienda può investire milioni in firewall e sistemi di protezione, ma se un singolo dipendente, per distrazione e scarsa alfabetizzazione, clicca su un link infetto, l’intero investimento è compromesso.

Il dipendente non formato è l’anello debole della catena che collega la sicurezza personale a quella corporate. Il rischio si amplifica in ambienti Bring Your Own Device (BYOD), dove la negligenza casalinga di un dispositivo personale diventa una porta aperta sulla rete aziendale.

Ma la minaccia si evolve, e con l’avanzare della tecnologia, l’alfabetizzazione deve evolvere con essa. Pensiamo di nuovo ai deep fake e ai loro rischi:

  • Phishing 2.0: Immaginate che un criminale generi un deepfake audio che imita perfettamente la voce del CEO o del Direttore Finanziario per chiamare il reparto contabilità, chiedendo un “trasferimento di fondi urgente e riservato”. Senza una rigida alfabetizzazione sui protocolli di verifica incrociata, l’impiegato, credendo alla voce del capo, causa una perdita milionaria (Truffa del CEO).
  • Danno Reputazionale: Un deepfake ben fatto può distruggere la reputazione di un’azienda in poche ore, falsificando dichiarazioni o azioni di un dirigente e facendole circolare sui social.

Non è così raro sentire persone con ruoli di responsabilità pensare di creare i propri cloni e di darli in gestione ai propri collaboratori.

La scarsa alfabetizzazione ha poi un costo che va oltre la sicurezza: l’azienda non riesce a sfruttare a pieno la sua stessa innovazione.

Quando i dipendenti hanno una conoscenza superficiale degli strumenti che usano (dai software di gestione dei dati ai servizi cloud computing), ne utilizzano solo una frazione del potenziale. Si aggrappano ai vecchi metodi, anche con nuovi strumenti in mano. E’ nella natura umana ed è la ragione per cui l’adozione è uno degli elementi chiave di una vera trasformazione digitale.

In questo, non aiuta di certo la semplificazione che oggi va per la maggiore quando si parla di AI ma non solo, quella che fa apparire tutte le nuove innovazioni tecnologiche semplici da adottare e, come si dice in gergo tecnico, plug and play ossia pronte all’uso purché si attacchi la spina.

Confusi anche da falsi miti, ci dimentichiamo che la tecnologia risolve i problemi se viene usata per affrontare le giuste questioni e se c’è l’organizzazione interna e le condizioni adatte a supporto. Viceversa, più sono sofisticati gli strumenti e più essi tireranno fuori in modo impietoso i limiti sui dati disponibili, sulle difficoltà operative, sull’inadeguatezza delle infrastrutture tecnologiche preesistenti e sulla mancanza di obiettivi chiari.

Sempre parlando di cose non certo nuove, sappiamo che l’organizzazione interna si muove a un ritmo totalmente diverso da quello della tecnologia, ne ho parlato largamente per il lusso ma vale per tutti i settori, e non solo nella marketing technology.

organizzazioni e cambiamento tecnologico

Inoltre, non è certo una cosa di oggi il crescente gap tra capacità di utilizzo e potenziale, solo che questa distanza non fa che aumentare.

Ciò porta a processi inefficienti, un basso ritorno sull’investimento tecnologico e una difficoltà strutturale nell’innovazione. L’azienda possiede un razzo, ma i dipendenti sono addestrati solo a usare l’accendino. Senza una solida data literacy, ad esempio, i dati raccolti restano inutilizzati, trasformando i sistemi avanzati in semplici depositi anziché in motori di crescita.

In questo il management, quello vero, ha un ruolo fondamentale. E lo hanno le persone che hanno conoscenza e comprensione della tecnologia.

Che fare: l’alfabetizzazione come “firewall umano” per le aziende e la società

Il costo della non-alfabetizzazione è insostenibile, lo abbiamo visto.

Per questo, all’inizio dell’anno mi ero dato come augurio di non subire passivamente le novità e prenderci il tempo per capire davvero dove stiamo andando grazie (anche) alla tecnologia, con uno sguardo che va oltre il breve periodo e con la consapevolezza che gli strumenti diventano buoni o cattivi in base a come li usiamo (e se prendono direzioni strane, beh, bisogna alzare la mano).

Se abbiamo avuto la fortuna, la bravura, la pazienza (e probabilmente tutte e tre insieme) di apprendere delle conoscenze strutturate attorno alle nuove tecnologie credo che sia sempre più un nostro dovere usare questa nostra competenza a beneficio della collettività, non solo quando siamo sul posto di lavoro ma anche in senso più lato (è un po’ il senso del mio blog e degli altri miei canali Telegram, Whatsapp e Substack).

In questo sicuramente ci possono aiutare delle letture di contenuti che sono si focalizzati sulla tecnologia ma che sono portati avanti da degli autori e degli esperti che hanno un background di tipo più filosofico o che comunque ci aiutano a guardare questa realtà non solo dal punto di vista del tecnicismo ma del loro significato più profondo.

l’ultimo libro di Stefano Epifani che ho recensito qui

Ho citato tante volte Neil Postman che del suo contributo “Five things we need to know about technological change” ha detto in maniera chiara che il cambiamento tecnologico è un cambiamento di tipo ecologico e non incrementale: “Un nuovo medium non aggiunge qualcosa; cambia tutto. Nel 1500, dopo l’invenzione della stampa, non esisteva più la vecchia Europa con in più la stampa. C’era un’Europa diversa”. Il cambiamento è un fatto culturale.

In questo cambiamento, come ha spiegato benissimo Luciano Floridi nel video qui sotto si mescolano una percezione sempre più vaga del mondo analogico “schermato” dal digitale e un peso sempre più forte sul piano strategico del controllo dell’hardware. Ascoltatelo tutto perché alla fine si parla anche del ruolo della politica e della nostra responsabilità individuale, che è molto in tema.

Non sono titolato poi a parlare più in generale del sistema educativo e del ruolo delle istituzioni ma credo che debba valere lo stesso approccio, chi ha le competenze deve essere messo in condizione di poter aiutare chi ne ha meno, qui con un approccio strutturale perché non si può fare affidamento solo sulla buona volontà.

Anche le aziende non possono più affidarsi solo alla tecnologia per proteggersi; devono investire nella consapevolezza umana. Non solo per evitare di perdere, ma anche per massimizzare ciò che possono guadagnare dalle nuove frontiere tecnologiche.

La sicurezza informatica non è un problema tecnico, ma un problema di formazione continua. È necessario un cambio di mentalità, che trasformi ogni dipendente – e ogni utente – nell’ultimo, più critico firewall.

In questo, la leadership tecnologica deve essere illuminata (e non solo repressiva o di freno), deve avere una forte capacità comunicativa e deve essere molto relazionale: mentre protegge deve aiutare a crescere, e sapere fare entrambe con un dialogo forte con tutto il resto del top management (sì, i manager servono ancora nell’era della AI).

La sfida per il futuro non è creare una tecnologia migliore, ma creare utenti digitali più consapevoli e critici.

English version is available on Medium.com