Questo sito utilizza esclusivamente cookies tecnici.

Mail redazione

  Scrivi un messaggio alla redazione o invia un articolo per la pubblicazione.
di Federico Maria Fiorin

 

Prendo spunto dall’ottima riflessione del professor Antonio Boscato, “Esami, sempre esami!” per spostare l’attenzione sull’impatto che la cosiddetta intelligenza artificiale (d’ora in avanti AI ndr) può avere con la nostra quotidianità. Senza alzare anacronistiche crociate nei confronti di una tecnologia che rivoluzionerà, e in parte già lo sta facendo, i nostri comportamenti e le nostre abitudini, è evidente che il paradigma con il quale sono state educate le generazioni sino ad ora (insegnare la conoscenza, il "nous" direbbero i greci, ovvero la capacità di cogliere il senso del tutto e di orientare le nostre scelte verso un orizzonte in grado di mettere in relazione etica e convenienza) è oggi fortemente messo in discussione. 

Il problema educativo oggi, non è più quello di insegnare conoscenze ai ragazzi, ma piuttosto quello di insegnare come acquisire conoscenze e come applicarle. La mole dei dati circolanti fa registrare un raddoppio della loro produzione ogni anno, ovvero ogni anno vengono prodotti una quantità di dati superiore a quella creata in tutti gli anni precedenti messi assieme, e abbiamo una crescita di informazioni (dati che servono a qualcuno o a qualcosa) che ha superato la capacità di acquisizione del singolo.

Fonte di Future Earth rileva che ogni anno vengono pubblicati circa 2 milioni di articoli scientifici, che sono letti per il 50% solo da chi li scrive e da chi fa la revisione, mentre solamente il 10% viene ripreso in citazioni da altri; da questo se ne ricava che il valore informativo di questi articoli è inferiore al valore informativo che si potrebbe ricavare considerando gli articoli rifiutati perché non hanno superato il processo di peer-review, ovvero la revisione tra pari che valuta la qualità scientifica e metodologica.

Nei fatti diventa impossibile per una persona essere costantemente aggiornata su quanto avviene nel suo settore di interesse. Se nel 1990 il tempo di acquisizione medio di conoscenza nei settori scientifici era stimato in 4 anni, con una obsolescenza delle informazioni (il tempo di perdita del valore del 50% delle informazioni possedute) di circa 10 anni, oggi in alcuni settori il tempo di apprendimento supera il tempo di obsolescenza: questo significa che rimanere aggiornati diventa impossibile!

Di fronte a questo quadro è evidente che esiste un problema. Si tratta di capire se l’AI possa surrogare il decidere umano, e se la tecnologia senza regole sia compatibile con la stessa cultura occidentale, che basa la sua premessa fondamentale sul fatto che le persone siano in grado di farsi una opinione corretta sui fatti: lo scienziato cerca la verità, come il giudice cerca di appurare i fatti.  Quindi mentre l’AI si dimostra molto brava, forse imbattibile, nel gioco o nel trovare la soluzione a problemi pratici (quell’intelligenza che i greci chiamavano metis, l’intelligenza pratica, l’astuzia intuitiva), quello a cui non dobbiamo abdicare è il nous, il senso del tutto, la capacità di trasmettere sapere, che è solo umana.


Diversamente, come ricordava Hannah Arendt nel suo testo fondamentale, "La banalità del male", l’assenza di pensiero critico che ha sottratto responsabilità al decidere umano, è diventata parte di un ingranaggio che ha portato alla massima disumanizzazione: Eichmann non era un mostro assetato di sangue, ma un mediocre e zelante funzionario, che si considerava un semplice esecutore di ordini nell’assoluto rispetto della legge. Quindi l’agire meccanico, acritico, deresponsabilizzato, tipico dell’AI, lasciato indisturbatamente proliferare, rischia di generare mostri.

Nell’era dell’AI giocheranno un ruolo da protagonisti i digital twin, cioè la riproduzione virtuale, dinamica e precisa di un oggetto, di un sistema e persino di una persona fisica. Questa copia digitale diventerà il punto di partenza per lo sviluppo di una serie infinita di servizi di education; in futuro non si manderanno più alle aziende i curriculum vitae da sottoporre per una assunzione, ma si invierà il proprio digital twin a negoziare posto, attività e stipendio. Nell’ambito scolastico potrà essere il digital twin a sostenere gli esami, riducendo l’ansia da stress da esame, ma creando al contempo lo stress da sapere.

Di fronte a tutto questo è fondamentale ed urgente individuare un punto di equilibrio tra etica e tecnologia affinché il pensiero critico proprio dell’Uomo riesca a mantenere la sua prevalenza sull’incombente rischio di venire divorati dal pensiero acritico proprio dell’AI.


Come ricorda fra’ Paolo Benanti, esperto di bioetica ed etica delle tecnologie, nonché presidente della Commissione per lo studio dell’impatto dell’intelligenza artificiale sul giornalismo, bisogna insistere perché esista un diritto “cognitivo” delle persone: “quello di sapere quali contenuti sono stati elaborati da un essere umano che ci mette la sua responsabilità, e quali invece sono stati prodotti da una macchina”. L’AI deve essere vista come una opportunità funzionale allo sviluppo e alla crescita equilibrata del genere umano che deve conservare la sua capacità di sapersi assumere responsabilità, non diventare lo strumento che predetermina, condiziona e decide le scelte dell’Uomo; vanno perciò contrastate e temute tutte quelle situazioni che prefigurano una umanità diminuita per lasciare spazio ad una artificialità aumentata.