Si parla tantissimo di ChatGPT che poi è di fatto la punta dell’iceberg di altri tipi di tecnologie legati all’intelligenza artificiale di tipo generativo.

Proprio per l’intensità con cui tutto questo è diventato oggetto di interesse sia dei media più generalisti sia degli addetti ai lavori più o meno competenti ho trovato molto interessante questa intervista fatta a Sam Altman, CEO di OpenAi, ossia la società che questa tecnologia la sta portando avanti.

INIZIAMO DAL PROBLEMA DELL’HYPE

Oltre alla marea di screenshot che riportano le prove fatte dalle varie persone con l’interfaccia free di questa tecnologia un’altra cosa che ha girato molto sui social e anche su alcuni media è una grafica secondo la quale la prossima versione 4 di chat GPT dovrebbe essere esponenzialmente più potente di quella odierna (la versione 3), visto che sarebbe basata su un trilione di parametri contro i 175 miliardi attuali.

La cosa divertente e significativa da questo punto di vista è che lo stesso Sam Altman nell’intervista definisce queste voci come “bullshit” e si chiede cosa porti le persone a una ricerca così intensa di delusioni e se non abbiano niente di meglio da fare (come potete vedere dal video se lo guarderete tutto, per altro lui è un personaggio piuttosto particolare ma molto interessante)!

Come ho scritto sul mio canale telegram a caldo sentendo questa dichiarazione non posso che considerare una volta di più che questo problema dell’eccessiva velocità con cui crescono le aspettative prima che siano ancora solide è un vero e proprio tema oggi, al punto da condizionare le aziende con la paura di restare indietro nel processo di innovazione, e rischia di far perdere lucidità a tutti quanti anche su delle tecnologie molto rilevanti e molto performanti come già è quella di chat GPT, che però il suo creatore con grande onestà definisce tutt’altro che perfetta.

In più lo stesso Altman si aspetta a breve un’intensità di attenzione di un ordine di una magnitudine inferiore (sono parole sue) e ritiene che questo livello di hype attuale non sia particolarmente produttivo nemmeno per loro stessi come società, specie quando queste aspettative diventano così elevate e non basate sui fatti.

Cito il sito LaSvolta.it e questo loro articolo: “è chiaro che la percezione che il pubblico riesce ad avere del progresso scientifico e tecnologico è guidata più dalla comunicazione che dalla reale conoscenza critica del valore innovativo delle singole novità scientifiche e tecnologiche”.

PARLIAMO PERÒ DI COSE PIÙ INTERESSANTI…

Nell’intervista Altman dice una cosa molto interessante, ossia il fatto che l’introduzione della loro tecnologia deve essere graduale e non perché serva (anche) testare che funzioni bene ma perché deve essere assorbita dalle persone, anche se loro vorrebbero un ritmo di rilascio più veloce.

Si pensa in effetti troppo poco ai risvolti concettuali più profondi della coesistenza di esseri umani e macchine, in questo articolo ad esempio Cosimo Accoto parla del senso più filosofico della parola sintetica e cita Jennifer Petersen che nel suo recente How Machines Came to Speak (2022) scrive “…molti impieghi dei bot e dell’apprendimento automatico ristrutturano il discorso, riorganizzando le posizioni di chi parla, del testo e del pubblico – e così facendo, cambiano ciò che significa essere un soggetto parlante … il momento attuale potrebbe essere un’occasione per ripensare alcuni dei nostri assunti fondamentali sul discorso”.

Cosimo non è nuovo a queste riflessioni che mirano ad uscire dalla cronaca e guardare dall’alto le trasformazioni. Alla fine, il codice software è qualcosa che disegna e decide le nuove condizioni di esperienza del mondo, per cui una cassa che non va trasforma uno store in un magazzino o dei programmi che girano sul computer in casa la fanno diventare un ufficio. Vi consiglio per approfondire l’intervento sotto che ho avuto il piacere di ascoltare di persona al Retail Forum di Cernobbio

Ho già citato spesso un altro intervento, datato 1998, del sociologo Neil Postman del titolo “Five things we need to know about technological change”, dove una di queste cinque cose è il fatto che “il cambiamento tecnologico non è incrementale ma ecologico. […] Un nuovo medium non aggiunge qualcosa; cambia tutto. Nel 1500, dopo l’invenzione della stampa, non esisteva più la vecchia Europa con in più la stampa. C’era un’Europa diversa”.

Dobbiamo essere consapevoli dell’impatto di questi cambiamenti,

Io, come Beth Kanter ed Allison Fin, vedo le AI e le RPA come un insieme di tecnologie che permettono a uomini e donne di fare le cose in modo diverso e migliore oltre i limiti precedenti, nella prospettiva di quello che Gartner chiama Digital Humanist, contrapposto al Digital Machinist che invece punta in un certo senso a sostituire le persone con le “macchine”.

Un approccio del genere può limitare la (molta) confusione che c’è attorno al tema dell’automazione che viene abilitata dall’intelligenza artificiale, portando a un circolo virtuoso di test, apprendimento e miglioramento, dove si procede con attenzione e lentamente, perché può essere difficile annullare i danni dell’automazione una volta che la tecnologia intelligente è in atto.

Non mancano le storie di incidenti con le intelligenze artificiali, gli esperimenti che portano al limite etico l’evoluzione tecnologica, le problematiche di privacy e, per fortuna, anche le cose divertenti (datata 2020 ma sempre carina).

Il confine è sempre molto sottile e io penso sempre che serva un’adeguata informazione, necessaria sempre e comunque già su Internet, per poter trovare il giusto compromesso tra benefici e rischi delle intelligenze artificiali.

L’OPPORTUNITÀ DI INDIRIZZARE QUESTI NUOVI MONDI

A tale proposito, un ultimo tema chiave che ho apprezzato dell’intervista su Altman è legato al fatto che secondo lui uno dei prossimi sviluppi centrali nelle tecnologie come Chat GPT è la possibilità di dare loro un “brief” su come già aspettiamo che esse si comportino, decidendo il livello di passività o aggressività.

Se da un lato probabilmente Altman riserva troppo spazio all’arbitrio del singolo questo aspetto di non lasciare alle società tecnologiche l’impostazione di come gli strumenti devono essere mi sembra comunque molto rilevante (c’è chi parla di insegnare alle intelligenze artificiali attraverso l’esempio, come in un passaggio di questo podcast di BoF).

Questo è molto vero anche in altri ambiti emergenti, come la costruzione dell’identità digitale che prenderà nuove forme con il Web3, di cui ho parlato qui.

L’opportunità di essere tutti parte attiva nella costruzione di questo nuovo mondo e nello sviluppo delle capacità di espressione che questo ci può aprire deve parlarsi con la creazione di un metaverso responsabile che fa il paio, in versione 3.0, con l’educazione civica digitale, l’uso consapevole già oggi dei social media e la tutela dell’identità digitale in rete (qui eravamo nel 2009 !). A guardare il numero di bambini che girano sotto mentite spoglie nei mondi virtuali in questo video sotto non è qualcosa di futuro…

Sull’argomento dell’espressione innovativa e autonoma di se stessi su questi nuovi media vi consiglio anche questo podcast di BOF con l’intervista a Nick Knight, che riprende lo stesso filone con un taglio più creativo ma con analoghe conclusioni.

Per concludere, voglio sottolineare che la capacità degli utilizzatori di tecnologia di fare le proprie scelte può spostare davvero gli equilibri ed è un processo quasi naturale.

Si è parlato parecchio, infatti, anche degli impatti che Chat GPT potrebbe avere su Google: non è l’unico caso, ancora più significativo è quello delle mappe nei confronti delle generazioni più giovani.

Il senior Vice President di Google Prabhakar Raghavan ha evidenziato che, ad esempio, TikTok sta iniziando a insidiare non solo il business dell’advertising di YouTube ma (insieme a Instagram) anche quello ancora più imprevedibile delle mappe: “In our studies, something like almost 40% of young people, when they’re looking for a place for lunch, they don’t go to Google Maps or Search. They go to TikTok or Instagram”.

Come scrivo qui, è un cambiamento poco comprensibile per chi è meno giovane ma perfettamente logico per il tipo di consumo digitale di queste fasce di età, dove vale più la raccomandazione di altre persone che la logica dell’algoritmo e che, se ciò non bastasse, non hanno mai visto una mappa cartacea che di base è il modello, digitalizzato, su cui si basano i software di mappe oggi sul mercato.

La tecnologia deve aiutare a rendere la vita più semplice, non a complicarla, e soprattutto bisogna avere in testa ben chiaro il fatto di dover risolvere i problemi delle persone (non da oggi) e rendere il lavoro e il tempo libero momenti migliori adattandosi ai propri clienti e non adagiandosi sui propri successi.

È una delle prime cose che dice proprio il CEO di Google (in questo caso Cloud) Thomas Kurian in questo podcast interessante che ho ascoltato negli ultimi giorni a cura di McKinsey.

Ma non è facile per nessuno…