La popolarità senza precedenti di ChatGPT ha messo il turbo al battage pubblicitario sull’IA. Ogni giorno veniamo bombardati da articoli che annunciano l’invenzione umana più grande: l’intelligenza artificiale (IA). Si dice che l’IA è «qualitativamente diversa», «trasformativa», «rivoluzionaria», «cambierà tutto». OpenAI, l’azienda dietro a ChatGPT, ha annunciato un aggiornamento importante della tecnologia che sta alla base di ChatGPT, il GPT4. I ricercatori di Microsoft sostengono già che GPT4 mostra «barlumi di intelligenza artificiale generale» o simil-umana: è il sacro Graal della ricerca in questo campo. Vengono avanzate fantasiose pretese sul raggiungimento del punto di “singolarità tecnologica” pari o superiore all’intelligenza umana.
La stampa economica parla di centinaia di milioni di posti di lavoro persi perché l’IA sostituirebbe gli essere umani in una marea di professioni. Altri si preoccupano per un futuro fantascientifico dove la super-intelligenza artificiale si ribella e distrugge o riduce in schiavitù l’umanità. Ci si chiede se siano previsioni fondate sui fatti o se sia solo clamore esagerato che l’industria della tecnologia e il sistema degli investimenti in capitali di rischio vendono così bene.
Gli attuali modelli IA si basano sulle cosiddette “reti neurali”. Se da un lato il termine “neurale” richiama immagini di un cervello artificiale simulato grazie a chip computerizzati, la realtà dell’IA è che le reti neurali non hanno nulla a che fare con il funzionamento del cervello umano. Queste reti cosiddette neurali non assomigliano alla rete di neuroni del cervello. Questa terminologia, però, è stata una delle maggiori ragioni della popolarità delle “reti neurali” artificiali ed è stata adottata ampiamente nonostante i suoi gravi limiti e difetti.
Gli algoritmi di “apprendimento automatico” in uso attualmente sono un’estensione dei metodi statistici, ma manca una giustificazione teorica per farne questo uso. I metodi statistici tradizionali hanno la virtù della semplicità. È facile capire cosa fanno, quando e perché funzionano. Hanno garanzie matematiche che assicurano il significato dei risultati delle loro analisi, poste condizioni molto specifiche. Dato che la realtà è complessa, tali condizioni non reggono mai e, di conseguenza, le previsioni statistiche sono di rado accurate. Gli economi, gli epidemiologi e gli statistici lo riconoscono e allora sfruttano l’intuizione per adoperare la statistica come guida verso obiettivi specifici in contesti specifici. Queste restrizioni spesso vengono trascurate, arrivando all’uso improprio dei metodi statistici tradizionali con conseguenze a volte catastrofiche, come nella grande crisi finanziaria del 2008 o nel fallimento di fondi speculativi LTCM del 1998, che mise in ginocchio il sistema finanziario globale. Una citazione famosa di Mark Twain dice: «Ci sono tre tipi di bugie: le bugie, le bugie sfacciate e le statistiche».
L’apprendimento automatico si basa sul totale abbandono della cautela che dovrebbe essere associata all’uso giudizioso dei metodi statistici. La realtà è disordinata e caotica quindi è impossibile creare modelli usando metodi statistici tradizionali. Così, la risposta dal mondo dell’IA è non fingere più di cercare giustificazioni teoriche sul perché e sul modo in cui dovrebbero funzionare questi modelli di IA, che sono più complicati per molti ordini di grandezza rispetto a quelli statistici tradizionali. Liberi da queste costrizioni di principio, i modelli di AI sono «più potenti». Di fatto, si tratta di esercizi non-lineari elaborati e complessi che combaciano empiricamente con i dati osservati, ma non ne capiamo le relazioni sottostanti.
Ma è anche vero che questi modelli di IA a volte possono fare cose che non riescono ad altri tipi di tecnologia. Alcuni risultati sono stupefacenti, come i passaggi che ChatGPT può generare, oppure le immagini che DALL-E può creare. La gente rimane sbalordita e si crea un’atmosfera di entusiasmo. Il motivo per cui funzionano “così bene” è la quantità strabiliante di dati di training: abbastanza da includere quasi tutti i testi e le immagini create dall’umanità. Nonostante tale quantità di dati e miliardi di parametri, i modelli di IA non lavorano in modo spontaneo, anzi richiedono espedienti grossolani e ad hoc per produrre risultati desiderabili.
Malgrado tutti questi trucchi, i modelli spesso sviluppano correlazioni spurie, cioè funzionano per i motivi sbagliati. Per esempio, è stato riscontrato che molti modelli di visione artificiale funzionano sfruttando correlazioni relative alla nitidezza delle immagini, allo sfondo, all’angolatura della foto e a caratteristiche specifiche. Questi modelli di visione di IA danno poi pessimi risultati in situazioni non controllate; per esempio, un divano leopardato sarebbe identificato come un leopardo. Questi modelli non funzionano quando una piccolissima quantità di rumore a schema fisso, quasi impercepibile dagli esseri umani, viene aggiunta alle immagini oppure quando le immagini vengono ruotate, come nel caso di un’auto capovolta dopo un incidente. Con tutta la sua prosa, poesia e i suoi notevoli componimenti, ChatGPT non è capace di moltiplicare due numeri molto grandi, mentre una calcolatrice degli anni Settanta ci riesce facilmente.
I modelli di IA non possiedono alcun grado di capacità di comprensione simil-umana, ma sono grandiosi nell’imitarla e nell’imbambolare la gente facendole credere di essere intelligenti, quando in realtà ripetono a pappagallo la vasta raccolta di testo che hanno ingerito. Per questo motivo, in un articolo del 2021, la linguista computazionale Emily Bender ha denominato “pappagalli stocastici” i Grandi modelli linguistici come ChatGPT o BART e BERT di Google. Alle sue coautrici di Google (Timnit Gebru e Margaret Mitchell) era stato chiesto di togliere i loro nomi dall’articolo. Loro si sono rifiutate e così sono state licenziate da Google.
Queste critiche non sono solo rivolte ai grandi modelli linguistici attuali ma all’intero paradigma che è lo sviluppo dell’intelligenza artificiale. Non otteniamo benefici solo leggendo sul tema, ma scoprendo ciò che funziona o meno. Questo vale anche per i compiti puramente intellettuali, come leggere e scrivere, e per le discipline formali come la matematica: non si migliora senza fare pratica. Questi modelli di IA non hanno uno scopo proprio e, perciò, non capiscono il significato né producono testi o immagini significative. Molti critici dell’IA sostengono che la vera intelligenza richiede “situazionalità sociale” [nozione per cui lo sviluppo dell’intelligenza individuale dipende dal suo inserimento in un contesto sociale e culturale, NdT].
Fare cose fisiche nel mondo reale richiede la gestione di complessità, non-linearità e caos, e la messa in pratica di tali cose. È per questa ragione che il progresso nella Robotica è stato estremamente lento: i robot attuali riescono solo a svolgere compiti fissi e ripetitivi che riguardano oggetti rigidi e identici, come le catene di produzione. Nonostante siano passati anni pieni di entusiasmo rivolto alle auto senza conducente e siano state finanziate grandi somme per le ricerche, la guida totalmente automatica non sembra ancora praticabile nel prossimo futuro.
Lo sviluppo dell’IA attuale basato sull’individuazione di correlazioni statistiche usando “reti neurali”, che vengono trattate come scatole nere, promuove un mito di pseudoscienza relativo alla creazione di intelligenza al costo di sviluppare una comprensione scientifica di come e perché queste reti funzionano. Al contrario, esso enfatizza la spettacolarità per esempio della creazione di demo impressionanti e di valutazioni in test standardizzati, basati su dati memorizzati.
L’unico uso commerciale significativo delle versioni attuali dell’IA è la pubblicità: per i social media e le piattaforme di streaming, raggiungere gli acquirenti. Questo non richiede l’alto grado di affidabilità necessario per altre soluzioni ingegneristiche; devono solo essere passabili. E pessimi risultati, come la propagazione di notizie false e la creazione di bolle di filtraggio piene d’odio, rimangono per lo più impuniti.
Forse il lato positivo di tutto questo è che, viste le tetre prospettive della singolarità dell’IA, è esagerata la paura di super-intelligenze artificiali cattive che distruggeranno l’umanità. Tuttavia questo dà poco conforto a chi subisce le decisioni dei sistemi di IA. Nel mondo ci sono già numerosi esempi di “sistemi decisionali di IA” che negano reclami assicurativi, contributi medici e ospedalieri legittimi e sussidi sociali dallo Stato. Con i sistemi di IA negli Stati Uniti sono state date sentenze di incarcerazione più lunghe alle minoranze. È stata negata la podestà genitoriale a genitori appartenenti a minoranze, sulla base di correlazioni statistiche spurie che spesso si riducono al non avere abbastanza denaro per dare da mangiare e provvedere ai figli. E, ovviamente, tali sistemi favoriscono l’incitamento all’odio nei social media. Come ha scritto l’emerito linguista Noam Chomsky in un suo articolo recente, «ChatGPT mostra la banalità del male: il plagio e l’apatia e l’ovviazione».
Di Bappa Sinha
Bappa Sinha è un tecnologo esperto, interessato all’impatto della tecnologia sulla società e sulla politica.
Questo è un articolo di Globetrotter.
Traduzione dall’inglese di Mariasole Cailotto. Revisione di Thomas Schmid.