L’etica dell’intelligenza artificiale
di Pasquale Martucci
Oggi si parla molto di Intelligenza Artificiale, e ciò è un bene perché significa porsi il problema e individuarne le potenzialità e gli aspetti critici.
Come sempre accade, ci sono posizioni radicali: chi pensa sia tutto bene, chi tutto male. Le solite categorie antitetiche, che non tengono conto della complessità dei problemi e non considerano le possibili varianti di un fenomeno che è attualissimo.
L’Intelligenza Artificiale rappresenta qualcosa che cambia le nostre consuetudini: istruzione, commercio, industria, viaggi, divertimento, sanità, politica, relazioni sociali, in breve la vita stessa che sta diventando inconcepibile senza le tecnologie, i servizi, i prodotti digitali.
La domanda principale è:
Cosa può fare l’uomo per la tecnica e, soprattutto, cosa la tecnica può fare per l’uomo?
Edgar Morin sostiene che l’IA fa molto di più delle macchine banali, anche se “il divenire dell’umanità ha spinto verso un uomo aumentato ma per nulla migliorato”. (Edgar Morin, Introduzione, in: M. Cerruti, La danza della complessità, Mimesis, 2023)
Ma prima ancora che si affermasse l’intelligenza artificiale, l’uomo aveva demandato alle macchine la gestione della sua vita. Sostiene Maurizio Corbetta (Clinica Neurologica dell’Università di Padova) che il cervello non riposa mai; anche durante il sonno richiama episodi di vita alla memoria. Però il cervello è adatto a mangiare, sopravvivere e procreare, ed invece deve prendere decisioni complesse. Dobbiamo oggi affrontare problemi di lungo termine e dunque siamo inadatti a fare tutto ciò.
Anche se molti affermano che l’IA ci libererà dal lavoro lasciandoci la creatività, Corbetta rileva:
“Ma come si alimenterà la creatività se abbiamo affidato la nostra memoria allo zio Google? Cederemo a Chat GPT la capacità di scrivere testi e risolvere problemi, e cosa resterà poi da pensare?”.
Il Chat GPT riesce a produrre analisi e sintesi sugli argomenti e i quesiti proposti, attraverso un percorso conoscitivo sempre più finalizzato a fornire risposte adeguate. Certamente si evidenziano le criticità in termini di utilizzo della IA, legate da un lato alla questione della accuratezza delle risposte, della veridicità in quanto la macchina attinge sempre ad una mole di dati forniti dall’uomo.
Un primo elemento da considerare è legato alla riproduzione di creatività ed emozioni, dal momento che sono appannaggio della facoltà umana; dall’altro lato, esistono criticità che necessitano di regolamentazione, per evitare la sopraffazione dei sistemi automatizzati.
La persona non si troverà più di fronte ad una macchina che si limita a svolgere compiti e analizzare dati sulla base di istruzioni assegnate, ma ad una che decide, determina ed estrae senso dai dati autonomamente. È proprio l’autonomia decisionale della macchina che rappresenta l’elemento distintivo dell’Intelligenza Artificiale. (Bonaventura Di Bello, Intelligenza Artificiale per le scuole, Hoepli, 2023)
Credo che oggi il dibattito sia soprattutto affidato a ciò che le norme possono impedire per un utilizzo distorto dell’IA.
Ad ogni modo, le domande sono: perché intelligenza artificiale?; ed ancora, se si tratta di artificio (macchina), come si coniuga con l’intelligenza che necessita di attività tipicamente umane?
L’intelligenza è una facoltà della psiche e della mente che permette all’uomo di comprendere e spiegare i fatti e le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare; adattarsi a situazioni nuove e modificare la situazione stessa quando essa presenta ostacoli all’adattamento e al cambiamento.
L’IA parte da uno storico di dati e ci dice cosa aspettarsi. Ma se ci sono possibilità non prese in considerazione? Inoltre certamente essa non può affrontare situazioni relazionali complesse ed entrare negli intrecci intersoggettivi e nelle dinamiche interpersonali, come pure non può affrontare i legami con le esperienze umane, sguardi, analogico tra le persone, risposte continue agli stimoli inter-relazionali.
Il sociologo Franco Ferrarotti sostiene che la macchina ha la capacità di controllare le proprie operazioni interne ma non può trascendersi. È l’eterno ritorno dell’identico. Non ci dice da dove veniamo, dove siamo e dove andiamo, perché “l’uomo pensa, esiste, dubita. La macchina la si può accendere, spegnere, riaccendere”. (Franco Ferrarotti, Macchina e uomo, Arcadia Edizioni, 2024, or. 1962)
È sottolineata la centralità dell’uomo che con la sua azione decide di accendere o spegnere la macchina. Non possiamo abbatterci, sostiene Ferrarotti, perché la tecnica è qualcosa priva di scopo. Non è l’estinzione del genere umano, anche se il problema è serio.
Per Aristotele, ogni essere umano è costituito da tre elementi: animale, sociale, spirituale. Per avvicinarsi alla conoscenza della natura umana occorre mettere in relazione tutti questi aspetti integrati e differenziati, che permettono ad ogni persona di essere irripetibile.
Aristotele sosteneva che: “siamo vulnerabili a causa della nostra animalità, siamo sociali e dunque reciprocamente interdipendenti, diventiamo autonomi e liberi in virtù della nostra spiritualità”. (Marta Bertolaso, Alfredo Marcos, Umanesimo tecnologico. Una riflessione filosofica, Carocci, 2023)
Per spiegare gli eventi occorrono ipotesi inedite. Il filosofo Peirce introduce il concetto di abduzione, il procedimento creativo che richiede di uscire da aspettative consuete. Qui sono necessarie le persone che hanno coscienza, intenzionalità, relazione con il mondo. Così si può affrontare l’imprevisto.
Se l’essere umano delegherà le sue decisioni alla macchina, è necessario che intervengano i regolamenti etici. Entra in gioco l’educazione, intesa come preparazione dell’individuo all’etica, la sola strada che può permettere di sviluppare virtù quali: creatività, operosità, prudenza.
L’etica è sia un insieme di norme e di valori che regolano il comportamento dell’uomo in relazione agli altri, sia un criterio che permette all’uomo di giudicare i comportamenti, propri e altrui, rispetto al bene e al male. L’etica assegna ai comportamenti umani uno status deontologico e normativo, li distingue in buoni, giusti, leciti, rispetto ai comportamenti ritenuti ingiusti, illeciti, sconvenienti o cattivi.
Aristotele nell’Etica Nicomachea sosteneva: “Ogni tecnica e ogni ricerca, come pure ogni azione e ogni scelta, tendono a un qualche bene, come sembra; perciò il bene è stato giustamente definito come ciò a cui tutto tende”.
Nel linguaggio filosofico, l’etica è ogni dottrina o riflessione speculativa intorno al comportamento pratico dell’uomo, soprattutto in quanto intenda indicare quale sia il vero bene e quali siano i mezzi atti a conseguirlo, quali siano i doveri morali verso sé stessi e verso gli altri, e quali i criteri per giudicare sulla moralità delle azioni umane.
Il problema resta il bene comune, che intende arginare gli impulsi egoisti e autolesionisti dell’individuo, con lo scopo di rendere la vita sulla terra più sostenibile, sia a livello sociale che ambientale. Se pensiamo ai bambini, non sempre viene insegnato loro ad essere corretti, a considerare le conseguenze delle loro azioni. Da piccoli il comportamento è quasi completamente istintivo; con la crescita saranno in grado di dominare impulsi non etici, di controllare le emozioni, e fare la cosa giusta nel rispetto di un agire che pensi all’interesse comune. L’educazione insegna ad ogni singolo individuo l’adozione di valori etici nella vita personale, che poi si uniranno ad altri valori etici per diventare legge, e poi cultura, e poi un nuovo modo di stare al mondo.
Le nuove tecnologie devono essere al servizio della persona umana, al fine di migliorarne le condizioni di vita. L’uomo, nella visione antropocentrica, resta l’elemento centrale da difendere, in un mondo dominato sempre più dalla tecnologia, per una migliore crescita del progresso collettivo.
Ed allora, lo sviluppo dell’Intelligenza Artificiale non può prescindere da un governo antropocentrico dell’innovazione. La sfida è nel definire il confine di fronte al crescente utilizzo dell’innovazione digitale e dell’automazione tecnologica. Esiste la non neutralità dell’algoritmo, la cui progettazione, se non opportunatamente controllata, rischia di amplificare i pregiudizi a cui è assoggettata la mente umana.
Per gli italiani l’IA è una tecnologia positiva ma va tenuta sotto controllo. Un sondaggio (CAWI 29 novembre – 1 dicembre 2023) rileva due classificazioni antitetiche:
IA negativa – metterà a rischio alcune forme di lavoro; provocherà dipendenza dalle macchine; toglierà competenze e responsabilità agli uomini; affiderà il potere a pochi;
IA positiva – migliorerà la qualità dei prodotti; svolgerà compiti faticosi; aumenterà la conoscenza; diffonderà informazioni; aiuterà nelle decisioni.
Le preoccupazioni principali sono legate al lavoro (36 % di intervistati) e alla dipendenza dalle macchine (34 %). Tutti gli altri indicatori in positivo o in negativo sono espressi da circa 1/4 e 1/5 del campione. Più della metà degli italiani 54 % esprime un giudizio positivo della IA, anche se va certamente tenuta sotto controllo. La preoccupazione maggiore riguarda proprio il lancio del ChatGPT, l’intelligenza artificiale generativa che imita la creatività umana.
La strada da percorrere è la regolamentazione, partendo dalle infrastrutture digitali, dal capitale umano e dal mercato del lavoro, dalle forme innovative in economia, dai problemi etici.
Una struttura normativa è offerta dal GDPR – General Data Protection Regulation o Regolamento europeo n. 679/2016 (in vigore nel 2018, ma inapplicato per la difficoltà dei Paesi europei di raggiungere accordi efficaci con i giganti del mercato dei dati digitali), oggi divenuta Artificial Intelligence Act. È un testo frutto del lavoro di due anni per far coesistere sicurezza e libertà, con salvaguardie da rispettare per chi usa e sviluppa l’IA: è essenziale che l’identificazione biometrica sia limitata ai casi di crimini gravi (violenze e terrorismo); oppure che ci sia l’obbligo di indicare l’uso di false immagini, con multe significative per le violazioni dei Regolamenti.
È la sfida per rispondere ai programmi rivoluzionari ChatGPT ed evitare falsificazioni da parte di persone, gruppi organizzati, aziende private che condizionano l’opinione pubblica per trarne vantaggi in termini di denaro e potere. Al centro c’è la difesa della conoscenza, la protezione dei dati personali, la garanzia della qualità delle informazioni. Il Regolamento intende garantire sicurezza e rispetto dei valori comuni: esso dovrà essere approvato entro la fine della legislatura (giugno 2024) ed entrerà in vigore progressivamente nei due anni successivi.
Saranno vietati: i sistemi di credito sociale (assegnazione di voti alle persone in base ai loro comportamenti); i sistemi di classificazione delle persone basati su razza, orientamenti religiosi); i sistemi di riconoscimenti biometrico (volti, impronte … autorizzati per reati legati a violenza sessuale e terrorismo); gli algoritmi che riconoscono le emozioni (in scuole e luoghi di lavoro, ad eccezione di contesti di sicurezza); i giocattoli con assistenza vocale (che incoraggiano comportamenti pericolosi nei bambini).
Sono diversi gli elementi da considerare per un’intelligenza artificiale etica.
- Supervisione umana: i sistemi di IA devono essere sorvegliati da personale umano, il quale deve garantire un utilizzo conforme ai diritti umani fondamentali, ponendo al centro di ogni utilizzo il benessere dall’utente.
- Robustezza e sicurezza: essa va intesa come una sicurezza e una affidabilità degli algoritmi.
- Privacy, controllo e gestione dei dati: richiede un’elevata e garantita protezione dei dati personali utilizzati da parte degli utenti.
- Trasparenza: esprime la necessità di garantire la tracciabilità dei sistemi.
- Diversità, correttezza, assenza di discriminazione: i sistemi di intelligenza artificiale dovrebbero tenere conto delle abilità e delle capacità umane manifestando una correttezza e garantendone a tutti l’accessibilità.
- Benessere sociale e ambientale: deve essere considerato in ogni ambito e in ogni momento l’impatto sull’ambiente e sull’assetto sociale.
- Responsabilità: devono essere continuamente verificati i sistemi, sia internamente che esternamente, riducendo al minimo i possibili impatti negativi soprattutto nel caso in cui potrebbero esservi violazioni dei diritti fondamentali.
Per affrontare il tema dell’Etica Digitale occorre considerare tre aspetti:
- Mediatico: fonti di informazioni comuni e accessibili devono includere l’intersezione tra umanità e intelligenza artificiale, al fine di proiettare una visione più costruttiva e veritiera sullo sviluppo tecnologico e sul ruolo che il digitale ha nelle nostre vite.
- Educativo: forum ed enti in grado di insegnare che cosa si intenda per interagire con il mondo digitale, educarci a vivere nella comunità, definendo le responsabilità politiche e sociali che abbiamo verso il digitale.
- Normativo: Istituzioni nazionali, regionali, e internazionali che regolamentino il mondo digitale al fine di istituire un circuito di responsabilità, accountability, doveri e diritti (Fabio Lazzini, Etica digitale e Intelligenza Artificiale, Giappichelli, 2022)
L’Intelligenza Artificiale offre grandi e inimmaginabili opportunità di sviluppo e di crescita, ma al contempo, se non opportunamente governata e gestita, presenta rischi proprio per la protezione dei dati, per le libertà e i diritti fondamentali degli individui. Il successo della sua attuazione significa rimuovere questi problemi, che potrebbero ledere i principi fondamentali sanciti dalle costituzioni democratiche, creando discrasie e discriminazioni per la stessa dignità dell’uomo.