Intelligenza artificiale: un dominio in espansione, ma non infinito (per ora)

Leggendo queste prime righe, a chi mastica un po’ di innovazione dovrebbe sorgere una domanda spontanea: questo articolo è stato scritto dall’autore che leggo in fondo oppure è frutto dell’algoritmo di ChatGPT?

Il dubbio è legittimo vista l’alta qualità dei contenuti che l’intelligenza artificiale è in grado di proporre. Vi è da sperare, tuttavia, che il “sale” che mettiamo negli articoli di Creature vi convinca dell’originalità dei nostri testi.                                                                              

L’intelligenza artificiale (AI) rappresenta un vero e proprio discrimen a livello tecnologico: mai prima di questa invenzione (che capiremo essere “umana, troppo umana”, parafrasando Nietzsche) si era riusciti a separare la capacità di azione dalla necessità di essere intelligenti, come ben evidenziato dal filosofo dell’informazione Luciano Floridi.

Come è stato possibile questo?

Chi si intende di scienza e tecnica sa che i primi proto-scienziati sono stati i φυσικοί, i filosofi che studiavano la natura partendo dall’osservazione degli elementi. Questo approccio di imitazione della natura si è conservato lungo i secoli: il nylon è una fibra artificiale inventata nel secolo scorso ma ideata su modello di una poliammide naturale ben più antica, quale la bava dei ragni, che riesce a costruire architetture non solo articolate ma anche estremamente resistenti, al punto da garantire la sopravvivenza di intere specie di predatori minuscoli e silenziosi ma nondimeno efficaci.

L’intelligenza artificiale è nata appunto su modello del nostro cervello, che è organizzato secondo una rete di cellule neuronali, le “reti neurali”, che permettono lo scambio di informazioni sotto forma di impulsi elettrici e di mediatori chimici.

Conoscendo la fisiologia del corpo umano grazie all’esponenziale sviluppo della biologia ed in particolare delle neuroscienze, il φυσικός contemporaneo, l’uomo di scienza, non poteva esimersi dal replicare in silico ciò che funziona così mirabilmente in vivo.

 Un’intelligenza, tuttavia, può essere riconosciuta come tale solo nel dialogo con altre intelligenze. Il luogo del dialogo per eccellenza, nella cultura occidentale, è simboleggiato dalla ἀγορά delle città greche. Questa immagine della “piazza” risulta cara ai due presidenti della Commissione sull'intelligenza artificiale per l'informazione (in brevis, “Commissione Algoritmi”) che si sono succeduti in questi anni, Amato e Benanti. Non poteva che partire dal Vecchio Continente una discussione più ampia e multidisciplinare sull’AI, dopo l’entusiasmo scatenatosi nell’anglosfera.

Giuliano Amato ama ricordare negli incontri pubblici che l’antica ἀγορά era sì la piazza del mercato, ma su di essa si affacciava sempre il tribunale. In ossequio al suo socialismo riformista, l’ex presidente della Consulta ha sempre fatto cenno all’importanza della sfera del diritto nella regolamentazione del mercato, anche di quello finanziario e tecnologico.

Data la portata degli eventi, tale regolamentazione deve essere sovranazionale ed in effetti l’Unione Europea è intervenuta con l’ AI Act, che sarà approvato ad aprile, allo scopo di tutelare la privacy dei cittadini europei, proteggerli dal rischio di disinformazione e garantire una governance di un fenomeno che è solo agli albori.

L’amministrazione Biden, dal canto suo, si è mossa in maniera più morbida con un Executive Order del presidente, che però coglie le stesse criticità di una tecnologia general purpose, ovvero di un vero e proprio catalizzatore tecnologico che andrà a in-formare il mercato nei prossimi decenni.

Se Amato, per formazione, ha posto più l’accento sulla giustizia “positiva”, dal canto suo l’attuale presidente della “Commissione Algoritmi”, padre Paolo Benanti, ingegnere e teologo francescano, ha guardato alla dimensione complementare del “foro interno” (per dirla con Kant) cioè della coscienza, che la macchina non possiede. L’AI in effetti, è (ancora) solo “generativa”, non creativa e quindi elabora delle risposte rispetto a un quadro di input che ad essa sono forniti. Dal momento che questi input e questi dati sono introdotti dall’uomo, il rischio è evidente e sintetizzabile dal noto adagio americano, garbage in, garbage out: se si introducono bias e pregiudizi nell’AI, essa si trova a reiterarli senza alcuna autocoscienza di quanto sta facendo. Occorre, pertanto, secondo il religioso, che si sviluppi una “algoretica”, cioè uno studio di come non introdurre i difetti dell’intelligenza umana in quella artificiale.

Riprendendo le parole di Benanti, l’intelligenza artificiale non sta determinando un’epoca di cambiamento ma un cambiamento d’epoca, soprattutto per il nostro sistema economico.

Si è di fronte a un fenomeno dirompente perché fino ad oggi i più recenti avanzamenti tecnologici erano stati rivolti al mondo della produzione. Fino a pochi mesi fa si parlava ancora diffusamente dell’impatto dell’“industria 4.0”, intesa come una progressiva automatizzazione dei processi produttivi mediante l’introduzione di robot e macchine per aumentare l’efficienza e rendere competitivi e appetibili gli investimenti in stati con un alto costo del lavoro, come l’Italia.

L’AI, invece, va ben oltre, perché tocca le mansioni più qualificate, imponendo un salto tecnologico anche ai white collar. Se ne ha un assaggio in queste settimane con il lancio del Copilot, l’assistente digitale di Microsoft Excel, forse ancora un po’ macchinoso, ma già in grado di realizzare in autonomia tabelle pivot e grafici, una volta digitata una semplice base dati.

Guardando al sistema paese, un tessuto di piccole e medie imprese, come quello italiano, non può permettersi di perdere il treno di questa innovazione. Spesso le PMI lamentano la difficoltà di reperire sul mercato risorse qualificate in ambito informatico, sia per la fattuale carenza di queste figure, sia per l’impossibilità di offrire salari adeguati, dati gli elevati oneri a carico delle aziende.

Gli assistenti virtuali (come Copilot, appunto, il cui nome è evocativo) possono fungere da strumenti in grado di svolgere compiti e funzioni per i quali fino ad oggi occorreva del personale qualificato.

Risulta evidente, allora, il motivo per cui anche questa innovazione tecnologica stia portando ad un’ondata di neo-luddismo, che, diversamente dal passato, non coinvolge più i ceti operai bensì la forza lavoro qualificata. Emblematico, a questo riguardo, lo sciopero dei doppiatori negli Stati Uniti la scorsa estate: la traduzione simultanea è qualcosa di assolutamente nelle corde dei software che utilizzano l’intelligenza artificiale e una sola licenza, inutile dirlo, per le aziende del cinema è meno gravosa di molti stipendi.

Questo esempio è interessante perché consente di delimitare il dominio delle applicazioni dell’IA e rispondere alla domanda che ciascuno dovrebbe porsi: “Quanto il mio lavoro sarà impattato e sparirà con l’avvento dell’AI?”.

E’ certo infatti che ogni rivoluzione tecnologica porta con sé “sommersi” e “salvati” e le perdite di posti di lavoro dovuta all’introduzione dell’AI è stimata a livello mondiale in 300 milioni di unità, stando a una recente ricerca di Goldman Sachs.

Per delimitare le capacità dell’AI dobbiamo innanzitutto astrarre una segmentazione del mondo del lavoro in ambiti complicati e ambiti complessi, seguendo la fortunata terminologia del modello Cynefin di Kurtz e Snowden (1999).

Gli ambiti lavorativi complicati sono quelli nei quali i problemi sono risolvibili attraverso la manipolazione di dati, tutti presenti ancorché distribuiti in modo disordinato. Si tratta di ambienti che siamo abituati a trattare sin da bambini, nei quali le informazioni sono known unknowns. I classici “problemi di Pierino” che le insegnanti sottopongono alla scuola primaria non sono altro che la versione elementare di problemi procedurali molto più articolati, come ad esempio progettare una navicella spaziale. In ambo i casi, si tratta di raccogliere le informazioni corrette, organizzarle, fare dei calcoli attraverso gli operatori matematici e presentare la soluzione. I problemi, insomma, sono risolubili con l’exploitation, lo sfruttamento di una potenza computazionale più o meno elevata. E’ il dominio perfetto dell’AI: scandagliare le norme per offrire un parere giuridico sulla base dei precedenti (come già avviene in alcune sperimentazioni nei paesi anglosassoni dove vi è un sistema di common law) o confrontare un’immagine di un organo di un paziente e suggerire la patologia ad un operatore sanitario (che magari ha una formazione tecnica molto più limitata di quella di un medico) sono solo alcuni esempi di problemi complicati destinati a non essere più solo appannaggio di professionisti affermati. Anche il linguaggio, benché fatto da lemmi e non da numeri, è un codice interpretabile e replicabile, di qui la preoccupazione dei doppiatori a Hollywood.

Gli ambiti lavorativi complessi, invece, si differenziano per svariate ragioni: non sono noti tutti i dati (si parla appunto di unknown unknowns), sono presenti spesso più stakeholder le cui mosse non sono perfettamente note, non ci sono chiari operatori matematici da applicare, bisogna procedere in maniera incerta per tentativi e spesso non è nemmeno possibile sapere all’inizio del percorso quale deve essere l’output. Mantenendo una continuità con gli esempi precedenti, progettare una navicella spaziale è complicato, mentre organizzare una missione spaziale è complesso, perché non sono note molte informazioni sull’universo e non si può neanche sapere esattamente a priori dalla Terra cosa si verificherà poi. Parimenti, comprendere la sensibilità di una corte sulla base degli interventi durante un dibattimento od organizzare secondo un piano il management sanitario di un ospedale sono compiti che vanno ben aldilà delle possibilità odierne dell’AI. Ciò perché non si richiede in questi casi uno “sfruttamento” dei dati, ma una loro organizzazione nelle circostanze concrete. Si parla appunto di exploration per gli ambiti complessi.

In qualche modo, i limiti odierni dell’AI costituiscono una rivincita del pensiero analogico su quello logico-formale. Quest’ultimo, infatti, da Aristotele alla rivoluzione scientifica fino ai nostri giorni è stato largamente impiegato nel progresso dell’umanità ed anche nel management: l’organizzazione scientifica della produzione, prima fordista e poi lean, è incentrata sull’efficienza nell’allocare le risorse, un problema tipicamente complicato, che nei prossimi anni potrà essere svolto dall’AI per larga parte.

Il pensiero analogico è invece qualcosa di più arcaico, se è vero che lo riconduciamo a personaggi come Pindaro e ai suoi proverbiali “voli pindarici”, ma al contempo è frutto di una riscoperta operata nel secolo scorso da Martin Heidegger, che ben ha sottolineato la potenza del pensiero memorante e poetante nell’indagine epistemologica (Pindaro era appunto un lirico, non un filosofo). Anche nella gestione aziendale, come messo in luce da Kim e Mauborgne (Blue Ocean Strategy, 2005), sempre più il red management della programmazione secondo diagrammi di Gantt, del lean manufacturing e dell’efficienza lascia spazio a una concezione complementare, quella del blue management esplorativo, adatto ai contesti incerti  e basato su scarti di pensiero analogici, che permettono di traslare le conoscenze da un ambito del sapere ad un altro, come avviene nei rapidi passaggi degli epinici di Pindaro, che nessuna intelligenza artificiale può ancora eguagliare.

Occorre quindi che il mondo delle imprese e del lavoro cambi: l’adozione di una strategia per l’AI non è solamente un’opportunità di sviluppo ma una condizione di esistenza, in particolare per le piccole e medie imprese.

A “rubare il lavoro” infatti, non è mai la tecnologia in sé ma chi (impresa o lavoratore) sa usare meglio di noi uno specifico tool, pur essendo magari meno performante a livello generale.

Ecco perché occorre una operazione su ampia scala di reskilling ed upskilling dei lavoratori e l’istituzione nelle imprese di una struttura ad hoc che valuti le modalità di adozione dell’AI nei processi aziendali: come spiegato da Marco Gay (presidente di Anitec-Assinform) su “Civiltà del Lavoro”, l’AI non è una commodity qualsiasi da acquistare ma una risorsa che va cucita su misura in base alle esigenze della singola impresa.                                                                            

In conclusione, di questo articolo, potreste fare un esperimento: copiate il testo e incollatelo su ChatGPT, chiedendo se è stato prodotto dall’intelligenza artificiale.

Verosimilmente vi dirà di sì, semplicemente perché noterà che il discorso è coeso e coerente.

Direte allora che si è sbagliato e vi risponderà scusandosi e facendovi i complimenti per lo scritto.

Nel frattempo, però, avrete fornito un nuovo modo di pensare all’intelligenza artificiale e l’avrete fatta progredire.

Viene allora da chiedersi, come fa il Cav. Mario Rizzante (ad di Reply): “L’intelligenza artificiale sarà l’ultima grande invenzione dell’umanità? Saranno allora gli algoritmi a inventare i prossimi capitoli della tecnologia?”

Per ora un fatto è certo: il pensiero logico, evolvendo nei millenni, ha dato “scacco matto” a se stesso creando l’AI e nuove praterie si aprono per chi, invece, sa pensare fuori degli schemi. 

                                                                                                                    

Alberto Lorenzet

Classe 1997, dopo il liceo ginnasio a Conegliano laureato con lode in Chimica Industriale all’Università “La Sapienza” di Roma. Alumnus del Collegio della Federazione dei Cavalieri del Lavoro, premiato come “Laureato Eccellente” dell’anno 2021, lavora attualmente presso EssilorLuxottica come ingegnere di produzione nell’ambito dei trattamenti superficiali. 

LinkedIn: Alberto Lorenzet

Indietro
Indietro

Vecchia Europa, ritrova te stessa!

Avanti
Avanti

Presidenziali statunitensi. Dalle primarie al voto, attraverso un rito unico al mondo