Il titolo non è solo provocatorio ma parte in realtà da dei contenuti apparsi di recente a firma di due persone che sul tema dell’Artificial Intelligence possono avere qualcosa da dire, ossia il “solito” Sam Altman e Dario Amodei, che è meno noto al grande pubblico ma che è il CEO di Anthropic.

Altman ha pubblicato un post dal titolo The Intelligence Agementre il saggio di Amodei (lo definisce lui così, ed in effetti è decisamente più corposo) si intitola Machines of Loving Grace: non si può dire non che ci sia della capacità evocativa in entrambi!

Con approcci diversi, anche per la totale diversità di lunghezza di contenuti, i due CEO guardano a una prossima era in cui la nostra intera realtà sarà trasformata in modo radicale dalle tecnologie di intelligenza artificiale.

Troppo? Probabilmente sì, ma nel mio piccolo ho trovato diverse riflessioni all’interno di questi testi, alcune condivisibili, altre argomentabili con l’aiuto anche di altre fonti oltre che di un pensiero critico.

Qualcosa che va al di là dei temi organizzativi aziendali, dei ragionamenti sugli investimenti di medio-lungo periodo, della governance tecnologica delle corporate.

IL RUOLO DELLA AI NELLA SCIENZA E NELLA SALUTE

Un primo punto che è giusto sottolineare è quello del ruolo della AI, generativa e non, nella ricerca scientifica.

Troppo spesso riduciamo queste tecnologie ad usi strettamente di produttività aziendale o, ancora peggio, a delle soluzioni con cui fare esperimenti divertenti su testi e immagini ma in realtà, già oggi, il progresso tecnologico si affianca a quello della ricerca su temi ben più seri.

Ne parlano entrambi ma Amodei, dovendo fare un elenco delle applicazioni positive di quella che lui chiama intelligenza artificiale potente (“powerful”), mette ben due di cinque di quelle a potenziale maggiore per migliorare direttamente la qualità della vita umana in questi ambiti:

  • Biologia e salute fisica
  • Neuroscienze e salute mentale

Ne parla per pagine e pagine con competenza, perché ha lavorato anche nell’ambito della biologia, e vi consiglio la lettura non tanto per diventare esperti del ramo quanto per capire la quantità di applicazioni di ambiti di ricerca, qualcosa che alla maggior parte di noi sfugge completamente.

Nella sua ipotesi, un’intelligenza artificiale potente potrebbe aumentare di almeno 10 volte la velocità delle scoperte, dandoci i prossimi 50-100 anni di progresso biologico in una manciata di anni (su questo torneremo).

IL TEMA DELLE DISEGUAGLIANZE E DELL’ACCESSO

Sam Altman scrive che “se vogliamo mettere l’IA nelle mani del maggior numero possibile di persone, dobbiamo ridurre il costo del calcolo e renderlo abbondante (il che richiede molta energia e chip). Se non costruiamo infrastrutture sufficienti, l’IA sarà una risorsa molto limitata per cui si combatteranno guerre e che diventerà principalmente uno strumento per i ricchi”.

Di sicuro dal suo punto di vista questa è anche una chiamata all’azione per gli investitori che dovranno finanziare (lui) per questo sforzo ma è indubbio che il tema dell’accesso a queste risorse è presente in più punti della narrazione di Amodei che ad un certo punto parla anche della preoccupazione che le persone optino per l’esclusione dai benefici abilitati dall’IA (simile al movimento anti-vaccino o ai movimenti luddisti più in generale), sia nei paesi sviluppati che in quelli in via di sviluppo. Potrebbero finire per esserci dei cicli di feedback negativi in ​​cui, ad esempio, le persone che sono meno in grado di prendere buone decisioni optano per l’esclusione dalle stesse tecnologie che migliorano le loro capacità decisionali, portando a un divario sempre maggiore e persino creando una sottoclasse distopica.

Per molti versi parliamo qui di Sostenibilità Digitale che include anche quella sociale oltre che quella ambientale ed economica, un tema che ha spesso affrontato anche Paolo Benanti che parla di “sfida nei confronti del sud globale, perché rischiamo di dar vita a un nuovo colonialismo digitale e cognitivo e non è detto che questo non porti a tensioni insopportabili al livello globale”.

Un video che spiega bene gli impatti etici della AI

Su questo Amodei scrive “non sono così sicuro che l’IA possa affrontare la disuguaglianza e la crescita economica come lo sono che possa inventare tecnologie fondamentali, perché la tecnologia ha rendimenti così alti e evidenti per l’intelligenza (inclusa la capacità di aggirare complessità e mancanza di dati), mentre l’economia comporta molti vincoli da parte degli esseri umani, così come una grande dose di complessità intrinseca”.

In tutto questo non credo che debba prevalere la negatività ma deve essere molto alta l’attenzione e trovo discutibile che tutto lo sforzo debba essere concentrato solo in delle società private che fanno ricerca per (giustamente dal loro punto di vista) il proprio profitto e i propri azionisti.

E questo vale anche quando ci spostiamo alla sfera della politica e della democrazia.

DEMOCRAZIA E AI

Altman dice che “l’alba dell’era dell’intelligence è uno sviluppo epocale con sfide molto complesse e ad altissima posta in gioco. Non sarà una storia del tutto positiva, ma il lato positivo è così enorme che dobbiamo a noi stessi e al futuro capire come gestire i rischi che abbiamo di fronte”.

E Amodei dice che “teorie plausibili suggeriscono che la tecnologia di Internet potrebbe in realtà avvantaggiare l’autoritarismo , non la democrazia come inizialmente creduto (ad esempio nel periodo della “primavera araba”). Sembra importante cercare di capire quanto potente l’intelligenza artificiale interagirà con queste questioni di pace, democrazia e libertà.

Sfortunatamente, non vedo alcuna forte ragione per credere che l’IA favorirà preferibilmente o strutturalmente la democrazia e la pace, nello stesso modo in cui penso che favorirà strutturalmente la salute umana e allevierà la povertà. Il conflitto umano è conflittuale e l’IA può in linea di principio aiutare sia i “buoni” che i “cattivi”. Se non altro, alcuni fattori strutturali sembrano preoccupanti: l’IA sembra destinata a consentire una propaganda e una sorveglianza molto migliori, entrambi strumenti principali nel kit di strumenti dell’autocrate.

Spetta quindi a noi come singoli attori inclinare le cose nella giusta direzione: se vogliamo che l’IA favorisca la democrazia e i diritti individuali, dovremo combattere per quel risultato. Sono ancora più convinto di questo che della disuguaglianza internazionale: il trionfo della democrazia liberale e della stabilità politica non è garantito, forse nemmeno probabile, e richiederà grandi sacrifici e impegno da parte di tutti noi, come spesso è accaduto in passato”.

Torniamo quindi al punto che la tecnologia non è intrinsecamente cattiva ma nemmeno automaticamente buona, per cui serve comprensione del suo funzionamento e giudizio nel suo uso.

Concetto che si applica al mondo del lavoro.

AVREMO ANCORA UN LAVORO E, DI CONSEGUENZA, UN NOSTRO SENSO?

Quello dell’impatto sul lavoro è uno dei temi più spesso dibattuti fin dai primi primissimi momenti quando si parla di intelligenza artificiale sia generativa che non.

Altman qui dice che “ci aspettiamo che questa tecnologia possa causare un cambiamento significativo nei mercati del lavoro (nel bene e nel male) nei prossimi anni, ma la maggior parte dei lavori cambierà più lentamente di quanto la maggior parte delle persone pensi e non ho paura che finiremo le cose da fare (anche se oggi non ci sembrano “veri lavori”). Le persone hanno un desiderio innato di creare e di essere utili gli uni agli altri e l’IA ci consentirà di amplificare le nostre capacità come mai prima d’ora. Come società, torneremo in un mondo in espansione e potremo di nuovo concentrarci sui giochi a somma positiva.

Molti dei lavori che facciamo oggi sarebbero sembrati delle insignificanti perdite di tempo alle persone di qualche centinaio di anni fa, ma nessuno guarda indietro al passato desiderando di essere un lampionaio. Se un lampionaio potesse vedere il mondo di oggi, penserebbe che la prosperità che lo circonda è inimmaginabile. E se potessimo andare avanti di cento anni da oggi, la prosperità che ci circonda sembrerebbe altrettanto inimmaginabile”.

Sì, certo però chi è toccato da questi cambiamenti in prima battuta può trovare difficoltà a collocare il proprio significato all’interno della società.

E’ sempre successo ma come sempre in questi anni ciò che cambia non è il percorso ma la sua velocità e ampiezza.

Qui scrive Amodei “la questione del significato, penso che sia molto probabile che sia un errore credere che i compiti che intraprendi siano privi di significato semplicemente perché un’IA potrebbe farli meglio. La maggior parte delle persone non è la migliore al mondo in niente, e questo non sembra disturbarle particolarmente. Il fatto che (a) un’IA da qualche parte potrebbe in linea di principio svolgere meglio questo compito, e (b) questo compito non è più un elemento economicamente ricompensato di un’economia globale, non mi sembra che importi molto.

La parte economica mi sembra in realtà più difficile della parte del significato. Con “economico” in questa sezione intendo il possibile problema che la maggior parte o tutti gli esseri umani potrebbero non essere in grado di contribuire in modo significativo a un’economia guidata dall’intelligenza artificiale sufficientemente avanzata. Questo è un problema più macro rispetto al problema separato della disuguaglianza, in particolare della disuguaglianza nell’accesso alle nuove tecnologie.

Innanzitutto, nel breve termine sono d’accordo con le argomentazioni secondo cui il vantaggio comparato continuerà a mantenere gli esseri umani rilevanti e, di fatto, aumenterà la loro produttività, e potrebbe persino in qualche modo livellare il campo di gioco tra gli esseri umani . Finché l’IA sarà migliore solo nel 90% di un dato lavoro, l’altro 10% causerà agli esseri umani un elevato indebitamento, aumentando la retribuzione e, di fatto, creando un mucchio di nuovi lavori umani che completano e amplificano ciò in cui l’IA è brava, in modo tale che il “10%” si espanda per continuare a impiegare quasi tutti . Infatti, anche se l’IA può fare il 100% delle cose meglio degli esseri umani, ma rimane inefficiente o costosa in alcuni compiti, o se gli input di risorse per gli esseri umani e l’IA sono significativamente diversi, allora la logica del vantaggio comparato continua ad applicarsi. Un’area in cui è probabile che gli esseri umani mantengano un vantaggio relativo (o persino assoluto) per un periodo di tempo significativo è il mondo fisico. Quindi, penso che l’economia umana possa continuare ad avere senso anche un po’ oltre il punto in cui raggiungiamo “un paese di geni in un data center”.

Tuttavia, penso che a lungo termine l’IA diventerà così ampiamente efficace e così economica che questo non sarà più applicabile. A quel punto, la nostra attuale configurazione economica non avrà più senso e ci sarà bisogno di una più ampia conversazione sociale su come l’economia dovrebbe essere organizzata.

Sebbene possa sembrare folle, il fatto è che la civiltà ha navigato con successo nei grandi cambiamenti economici in passato: dalla caccia e raccolta all’agricoltura, dall’agricoltura al feudalesimo e dal feudalesimo all’industrialismo. Sospetto che servirà qualcosa di nuovo e strano, e che nessuno oggi abbia fatto un buon lavoro nell’immaginarlo”.

MA TUTTO QUESTO QUANDO AVVERRA’?

Questo è uno degli aspetti che maggiormente accomuna i due CEO

Altman dice che “nei prossimi due decenni saremo in grado di fare cose che per i nostri nonni sarebbero sembrate magiche […] È possibile che avremo la superintelligenza in poche migliaia di giorni (!); potrebbe volerci di più, ma sono sicuro che ci arriveremo”.

Di suo Amodei dice che ci troviamo alla porte del “XXI secolo compresso”, con l’idea che dopo che sarà sviluppata un’intelligenza artificiale potente, in pochi anni (5-10) faremo tutti i progressi in biologia e medicina che avremmo fatto nell’intero XXI secolo.

MIgliaia di giorni (sempre molto furbo), secolo compresso…tutti concetti affascinanti ma molti informatici sono scettici su questo genere di affermazione sostenendo che molteplici importanti scoperte scientifiche si frappongono tra noi e l’intelligenza artificiale generale (che forse rispetto a tutto ciò è addirittura uno stadio precedente!). Come scrive The Atlantic “Altman proietta la fiducia che la sua azienda abbia tutto sotto controllo, che la fantascienza diventerà presto realtà. Potrebbe aver bisogno di circa 7 trilioni di dollari per realizzare la sua visione finale, per non parlare della tecnologia di energia da fusione non dimostrata, ma sono noccioline se confrontate con tutti i progressi che sta promettendo. […] È molto più piacevole fantasticare su un futuro benevolo dell’IA, che risolve i problemi causati dal cambiamento climatico, che soffermarsi sul fenomenale consumo di energia e acqua dell’IA effettivamente esistente oggi.

Ricordate, queste tecnologie hanno già una storia. Il mondo può e dovrebbe valutarle, e le persone che le costruiscono, in base ai loro risultati e ai loro effetti, non solo in base al loro presunto potenziale”.

Come ho commentato anche qui il problema è proprio questo, è sempre più difficile discriminare e, onestamente, anche fidarsi: quanto è marketing e quanto realtà? Il 16 agosto 2023 Gartner ha scritto che l’intelligenza artificiale generativa (AI) si posiziona sul picco delle aspettative gonfiate nell’Hype Cycle for Emerging Technologies 2023, e si prevede che raggiungerà benefici trasformativi entro due-cinque anni.

E di sicuro quella che conosciamo non è una AGI o una superintelligenza e se non inserita in un contesto ha relativamente senso.

D’altra parte, il progresso corre veloce ed escludere nuovi scenari oggi è una scommessa, oggettivamente quanto vediamo fare a queste tecnologie oggi sarebbe stato impensabile anche solo 3 anni fa.

LA AI PRENDERA’ IL SOPRAVVENTO?

E’ innegabile che queste tecnologie avranno un impatto, a partire dalla percezione stessa della realtà: ho già citato spesso un intervento, datato 1998, del sociologo Neil Postman del titolo “Five things we need to know about technological change”, dove una di queste cinque cose è il fatto che “il cambiamento tecnologico non è incrementale ma ecologico. […] Un nuovo medium non aggiunge qualcosa; cambia tutto. Nel 1500, dopo l’invenzione della stampa, non esisteva più la vecchia Europa con in più la stampa. C’era un’Europa diversa”.

Ma questo impatto sarà controllabile o sarà un’evoluzione, positiva o meno, dove la tecnologia avrà una sua traiettoria propria?

Altman scrive che “dopo migliaia di anni di scoperte scientifiche e progressi tecnologici, abbiamo capito come sciogliere la sabbia, aggiungere impurità, disporle con sorprendente precisione su scala straordinariamente piccola nei chip dei computer, farvi passare energia e finire con sistemi in grado di creare un’intelligenza artificiale sempre più efficiente”.

Per rispondere alla domanda più sopra passo allora la parola a chi i microprocessori li ha inventati, il nostro italiano Federico Faggin, che in più interviste si è espresso su tutto questo mondo, compreso nel video sotto.

Dice Faggin: “L’intelligenza artificiale si basa su algoritmi che sono stati creati attraverso un processo di apprendimento con dati vetted, vale a dire dati affidabili. Ma se le dessimo in pasto delle fonti in cui vi sia molta disinformazione, formerebbe determinate correlazioni statistiche dicendo una grande quantità di sciocchezze. Il computer infatti non ha comprensione di ciò che dice, poiché in esso è presente solo l’aspetto simbolico, ma manca quello semantico. È l’opposto di quanto avviene negli esseri umani: noi possiamo commettere errori nell’uso dei simboli, nella sintassi, ma c’è in noi molta più semantica, cioè comprendiamo le cose da dentro. L’IA dev’essere usata da persone che la sanno più lunga di essa, altrimenti potrebbe ingannarle non perché abbia intenzioni malvagie, ma semplicemente perché non capisce ciò che dice. […] Mi irrita molto il fatto che l’IA venga presentata come sostitutiva della nostra intelligenza invece che come complementare, come un aiuto. Essa viene cioè presentata come qualcosa che, ora o fra cinque anni, diventerà migliore di noi. È un enorme menzogna: essa non sarà mai migliore di noi, perché siamo stati noi a crearla, non viceversa”.

Non lo pensa solo Faggin, come viene scritto qui esiste un paradosso di Moravec che dice i bambini sono più intelligenti dell’intelligenza artificiale. Nel 1988 il ricercatore di robotica Hans Moravec notò che “è relativamente facile far sì che i computer mostrino prestazioni di livello adulto nei test di intelligenza o nel gioco della dama, ed è difficile o impossibile dar loro le capacità di un bambino di un anno quando si tratta di percezione e mobilità”. La maggior parte delle capacità innate sono integrate nel nostro DNA, e molte di esse sono inconsce.

Sicuramente è una visione molto più rassicurante, che non elimina i rischi di questa velocissima evoluzione ma la inquadra più nella dimensione per cui dobbiamo essere noi a sapere guidare questa macchina, perché essa non si guida da sola (anche se può fare danni).

D’altra parte, dobbiamo anche posizionare questi due imprenditori visionari nel contesto culturale della Silicon Valley, in cui i capitali sono apparentemente illimitati, la loro ricchezza personale è decisamente superiore alla stragrande maggioranza delle persone e la tecnologia ha la soluzione per tutti i mali (grazie a delle società private).

Non per nulla, stiamo parlando della cultura che ha generato anche ideologie inquietanti come il lungotermismo, che trovate sintetizzato qui e qui ed esploso, tra gli altri che potete trovare in rete, in questo video.

Per questo, e sarebbe molto da dire (guardate questo video per esempio), credo che proprio dalla comprensione della tecnologia nascono la capacità di non fare danni inavvertitamente, l’utilizzo corretto in combinazione con altri strumenti e anche l’individuazione degli elementi necessari a scrivere delle regole che ci proteggano tutti dagli utilizzi consapevolmente malevoli (perché non può essere tutto totalmente autogestito) senza limitare il potenziale fantastico di questi strumenti.