In queste settimane si è parlato molto di opportunità e rischi dell’evoluzione tecnologica a partire dalla grande notorietà mediatica che ha raggiunto l’intelligenza artificiale generativa, come prima di essa diversi ambiti Web3 quali il metaverso e (periodicamente) le criptovalute e i relativi exchange (specie quando crollano).
Non sono mancati i colpi di scena come ad esempio la lettera firmata da Elon Musk e da vari altri esperti ed accademici che hanno chiesto una sospensione di sei mesi dello sviluppo dell’intelligenza artificiale piuttosto che le vicende del Garante per la privacy italiano che con le sue richieste di chiarimento ha innescato una sospensione dell’erogazione dei servizi di chat CPT nel nostro paese, con relativo turbinio di polemiche.
Ma dobbiamo avere paura della tecnologia? La mia risposta tende decisamente al no ma non è così univoca come può sembrare.
PERDERE LA RELAZIONE TRA CAUSA ED EFFETTO
Vi consiglio caldamente di ascoltare questa divertente e interessante conversazione di Vincenzo Cosenza con Chiara Valerio, che ha scritto un libro dal titolo molto significativo: “La tecnologia è religione” (e di considerare l’acquisto del volume).
Partendo dall’escamotage linguistico, molto gustoso, del teorema del peluche Chiara Valerio dice che a un certo punto per noi è vivo (quindi anche entro certi limiti intelligente o comunque senziente) tutto ciò che ci genera un’emozione.
E che cosa c’entrano la tecnologia e la religione?
Beh, tutto è magico finché si perdono le connessioni causa-effetto, un po’ come per la magia e la danza della pioggia nei tempi antichi.
Mettiamoci poi che la parola è ciò che entro un certo limite anima le cose, senza contare che c’è dentro la parola anche una narrazione teologica, come nel caso del Vangelo e della frase “in principio era il Verbo”.
Poca conoscenza del meccanismo, tendenza a vedere come umano e pensante chi parla, un pizzico di esperienza ultraterrena: eccoci a ChatGPT e i suoi simili!
Ciò che mi piace particolarmente di contributi come quello di Chiara e di chi legge la tecnologia sotto una prospettiva di tipo non tecnico è che ci aiutano a riflettere sul senso più profondo delle cose.
Ne è un esempio anche Cosimo Accoto che ho citato più volte negli ultimi pezzi, che ci dice che siamo entrati nell’era dell’immagine di sintesi, che si aggiunge a quella della parola di sintesi: dobbiamo imparare a conoscere e a capire le immagini sintetiche e la loro potenza (basti pensare al volume di ricerche generato da quella del Papa).
Da tutti questi contributi si capisce molto bene, a voler leggere con attenzione, il fatto che tendiamo a non comprendere pienamente che cosa c’è dietro a tutte queste nuove tecnologie e quindi da un lato le vediamo quasi come qualcosa di magico e dall’altro attribuiamo loro capacità superiori a quelli attuali, sia che le vogliamo vedere in positivo sia che le vogliamo invece leggere in ottica più apocalittica.
Un primo punto fondamentale quindi è capire davvero cosa c’è dietro queste tecnologie, come possono essere usate e rendersi conto contemporaneamente anche dei loro limiti.
INNOVARE CON CRITERIO
Oltre ad avere paura di ciò che non si conosce, un altro grande rischio in questo senso è quello di farsi prendere dalla preoccupazione di non seguire abbastanza velocemente i temi del momento (che spesso si pensa erroneamente di aver capito).
Per iniziare questo 2023 avevo scritto un post partendo sia dalla rilettura di un mio vecchio contenuto sia dal quasi contemporaneo ascolto di un podcast di AWS, dal titolo “FOMO in the C-Suite”. L’acronimo FOMO sta per fear of missing out, letteralmente: “paura di essere tagliati fuori”. Indica una forma di ansia sociale caratterizzata dal desiderio di rimanere continuamente in contatto con le attività che fanno le altre persone, e dalla paura di essere esclusi da eventi, esperienze, o contesti sociali gratificanti (fonte: Wikipedia).
Quando si fa innovazione molto spesso ci si dimentica la domanda più semplice, ossia il perché stiamo facendo una certa scelta, da cui deriva poi in modo sano il come si applicano le cose, evitando il mero copy and paste e l’effetto “bambino nel negozio dei dolci” dove si vorrebbe prendere tutto quello che si vede sullo scaffale della tecnologia.
Di certo in questo momento con tutte queste sollecitazioni mediatiche non è facile, ma proprio per questo servono persone all’interno delle organizzazioni che aiutino a pilotare in modo discreto ma solido questo cambiamento.
Altrettanto fondamentale è la centralità delle persone nel disegno, siano esse clienti o dipendenti, attorno ai quali va costruita la tecnologia migliore (e non viceversa) per raggiungere gli obiettivi.
Come ho scritto di recente qui l’unica vera chiave di lettura, per un oggetto fisico come per un servizio in cloud, è il senso ultimo che il cliente attribuisce alla sua relazione con l’azienda, e in questo nemmeno AI, Web3 e Metaverso fanno eccezione.
Ma è possibile davvero costruire una visione condivisa del genere senza riuscire a comunicarla anche efficacemente?
PARLARE LA STESSA LINGUA
Avete mai sentito parlare della variazione diafasica della lingua? Treccani alla mano, la variazione diafasica “si manifesta attraverso le diverse situazioni comunicative e consiste nei differenti modi in cui vengono realizzati i messaggi linguistici in relazione ai caratteri dello specifico contesto presente nella situazione; viene quindi anche detta variazione situazionale”.
Questa dote è estremamente importante quando ci si muove in tutti contesti aziendali, parlando la lingua comprensibile a ciascuno (tecnico e non tecnico) senza che si perda l’efficacia e il senso del messaggio.
Da qui arriviamo velocemente anche al concetto di “Digital Fluency”. In generale, la fluidità digitale è una combinazione di:
- Competenza digitale o tecnica: in grado di comprendere, selezionare e utilizzare le tecnologie e i sistemi tecnologici;
- Alfabetizzazione digitale: competenze cognitive o intellettuali, che includono la capacità di leggere, creare, valutare, esprimere giudizi e applicare abilità tecniche mentre lo si fa;
- Competenza sociale, o conoscenza di disposizione: la capacità di relazionarsi con gli altri e comunicare con loro in modo efficace.

Ho largamente parlato in altri post del valore di questa fluidità digitale, che è un elemento spesso cruciale per arginare sia il FOMO che la paura del nuovo.
MA ALLORA NON CI SONO RISCHI?
I rischi ci sono ma vanno inquadrati alla luce di tutto quanto abbiamo detto finora. Proviamo a vederlo proprio con l’esempio delle AI generative.
“I computer sono stupidi – forniscono solo risposte” (Pablo Picasso)
“I computer sono per le risposte, le persone per le domande” (Kevin Kelly)
Sono due citazioni tratte dal libro Technology Vs. Humanity: The Coming Clash Between Man and Machine del futurologo Gerd Leonhard.
Interessanti vero? Lo sono, soprattutto perché il libro è del 2016 e io le ho riportate nella mia recensione datata aprile 2017.
Questo libro mi sembra un ottimo esempio del concetto che esprimevo anche qui, i fenomeni non nascono in pochi mesi ma arriva un momento in cui diventano visibili e il compito di chi ha le coscienze è di anticipare e guidare questo cambiamento, spiegandolo in modo opportuno sia nella parti positive che in quelle più problematiche.

Se non vi bastasse il singolo esempio, dello stesso periodo è anche e “Le persone non servono: Lavoro e ricchezza nell’epoca dell’intelligenza artificiale” (che ho recensito qui), mentre nel 2018 è uscito in Italia Intelligenza artificiale. Guida al futuro dello stesso Kaplan.
Ma torniamo ai rischi.
Un concetto forte del libro di Gerd Leonhard è quello di “Hellven”, crasi delle parole inglesi che stanno per Inferno e Paradiso, per ribadire che la direzione non è univoca; come scrive l’autore “la digitalizzazione e l’automazione possono essere ‘paradiso’ per le grandi aziende, ma per i loro dipendenti possono anche essere un inferno – e spesso anche per i loro clienti. Con sempre più dati, l’intelligenza e la virtualizzazione spingono i costi ad essere ridotti del 95 per cento ma vanno anche a creare maggiori rischi per la sicurezza e potrebbero portare alla fine della privacy, e anche del libero arbitrio nel peggiore dei casi”.
Quindi occorre riflettere sulle cose per aiutare a dare il giusto indirizzo.
Come ribadisce in questo podcast Stefano Epifani, la sostenibilità digitale si compone di una parte economica, di una sociale e di una ambientale: l’equilibrio tra le tre segna il giusto punto di scelta.
Ogni nuova tecnologia causa degli scompensi nel mondo del lavoro che potrebbero però essere largamente compensati da altri benefici umani ed economici, a patto che sempre che l’impronta ecologica sottostante a tutto ciò non sia troppo pesante.
Un puzzle i cui pezzi sfuggono sempre una comprensione più rotonda.
C’è poi un altro rischio, legato al fatto che dietro le AI ci sono sempre dei “genitori” umani. Cerchiamo di distinguerci dalla macchina ma al tempo stesso abbiamo la tendenza a renderla antropomorfa e quando lavoriamo alla programmazione ci mettiamo dentro la nostra forma e tutti i nostri bias.

Mi trovo quindi d’accordo con questa riflessione di Francesca Rossi, manager di Ibm che si occupa di etica degli algoritmi: più che bloccare gli sviluppi per un futuro distopico di vera intelligenza artificiale, e ostile, è importante capire che cosa non va già oggi e lavorare sulla correzione di questa fase storica ancora iniziale.
Ancora, la velocità con cui la tecnologia progredisce è generalmente superiore alla comprensione media delle persone ma in più qui, nel caso delle AI, è stato improvvisamente aperto un accesso di massa che non è privo di implicazioni. Ne scrive bene Fabio Lalli qui, ad esempio il deepfake è qualcosa in cui ci siamo già imbattuti in passato ma che ora è incredibilmente accessibile a tutti, e questo anche nei casi di buona fede non è un fatto di poco conto, tanto che MidJourney ha dovuto sospendere le prove gratuite.
Si potrebbero fare tantissimi esempi, e non solo sul tema dell’intelligenza artificiale, tuttavia credo che sia chiaro il senso che emerge da queste brevi riflessioni: senza una reale conoscenza e un’adeguata alfabetizzazione delle persone il rischio delle derive tecnologiche c’è eccome, anche se magari è più vicino e meno apocalittico (almeno all’apparenza) di quello che sembra.
Questa conoscenza è estremamente importante anche per potersi far valere come società quando è necessario e non lasciare lo sviluppo di tutti questi mondi totalmente in mano alle big tech.
Non è però la paura la soluzione, la soluzione è la conoscenza.
Rispondi