Intelligenza artificiale tra etica e pregiudizi
Informatica & Etica, due scienze diverse: la prima studia l’elaborazione dell’informazione e le sue applicazioni mentre la seconda è una scienza sociale. In passato si è molto parlato dell’etica della tecnologia mentre oggi il focus è sull’etica dell’intelligenza artificiale. Oggi, a mio parere, l’etica, in termini di approccio alle nuove tecnologie, si deve fondare sul concetto di responsabilità. Era il 1972, anno per me particolarmente caro, quando il filosofo tedesco Hans Jonas sottolineava la necessità di adottare una nuova etica rispetto alle tecnologie emergenti. Il messaggio sbagliato che arriva alla massa è spesso basato su previsioni sbagliate che fanno da benzina sul fuoco della paura delle persone. L’intelligenza artificiale distruggerà l’umanità prefigurando un mondo futuro distopico. Mondo minacciato da una nuova realtà che può autodeterminarsi e gestirsi in autonomia a prescindere dall’intervento umano. Un’indipendenza dell’intelligenza artificiale che rischia di deresponsabilizzare le persone perché si autoconvincono di essere impotenti davanti a una tecnologia considerata erroneamente indipendente dall’uomo. In realtà, come accade in tantissime cose con cui interagiamo tutti i giorni che talvolta non hanno nulla a che fare con la tecnologia, non è lo strumento in sé pericoloso ma è il come lo si utilizza e chi lo utilizza. Da qui la necessità di una maggiore o nuova consapevolezza che sia in grado di riprendere il controllo dei cambiamenti in corso in modo da averne anche la responsabilità. Ecco perché il nuovo approccio all’evoluzione tecnologica deve essere basato su una maggiore consapevolezza che deve portare ad avere un controllo responsabile della tecnologia creando le basi di “una nuova etica”.
Negli ultimi anni l’Unione Europea ha concentrato molto la sua attenzione sulla regolamentazione delle politiche del digitale. A fine 2022 è stata pubblicata la “Dichiarazione europea sui diritti e i principi digitali”. Il GDPR è ormai 5 anni che è in fase di attuazione. Sono state regolamentate le criptovalute e siamo arrivati alla fase di regolamentazione dell’Intelligenza Artificiale. In questo periodo ci sono ancora fratture tra la visione del Consiglio europeo e quella del Parlamento europeo in merito all’Ai ACT. I nodi da sciogliere sono diversi e il dibattito è ancora forte sulla valutazione sui diritti fondamentali (fundamental rights assessment) che consiste nella verifica dell’impatto dell’Ai su contesti concreti dei sistemi e sulla prevenzione di eventuali rischi. Il secondo nodo riguarda i sandbox ovvero gli ambienti sicuri in cui fare le sperimentazioni degli algoritmi. Il Parlamento ha un atteggiamento prudente mentre il Consiglio è aperto alla possibilità di fare test nel mondo reale. Il terzo aspetto su cui è ancora meno facile trovare un accordo tra Parlamento e Consiglio appare quello legato ai divieti dell’Ai. I vari governi sono orientati nell’utilizzo dell’intelligenza artificiale per migliorare la sicurezza, per l’identificazione biometrica in spazi pubblici e per creare nuove forme di polizia predittiva. In generale l’Unione Europea sta dividendo in base al rischio l’utilizzo dell’intelligenza artificiale. È considerato ad alto rischio l’utilizzo nella pubblica amministrazione, nel settore della formazione per individuare la possibile crescita degli studenti o nel settore HR. Mettere limiti e regole, secondo l’approccio europeo, è in funzione proprio di quella maggiore responsabilità di aziende e pubblica amministrazione accennata all’inizio. È bene precisare che l’intelligenza artificiale allo stadio in cui è oggi è una tecnologia che viene sempre utilizzata in un contesto specifico ben definitivo. Se viene, per esempio, utilizzata per la selezione dei candidati di una posizione lavorativa, la valutazione che viene fatta è basata sullo specifico software/piattaforma/algoritmo che viene utilizzato per il caso e il contesto specifico. Un altro elemento da tenere in considerazione è l’emozione che può annullare l’approccio razionale delle persone. Un esempio è dato dalle auto a guida autonoma. SI tratta di una tecnologia abbastanza matura che assicura già un buon grado di sicurezza. Ogni giorno avvengono migliaia di incidenti sulle strade ma se anche uno di questi coinvolge un’auto a guida autonoma l’opinione pubblica può insorgere contro.
L’intelligenza artificiale non riguarda solo le persone ma anche comunità e ambiente in cui esse vivono. Il report Benifei-Tudorache, oltre a quest’ultimo aspetto, sottolinea come l’Ai nel campo predittivo sia un rischio per la società mettendo in serie pericolo la presunzione di innocenza in quanto è in grado di trasformare il disagio sociale in una profezia sbagliata perchè basata sul un trend del passato. Da qui al più vasto tema del pregiudizio endogeno (Embedded bias) che può portare a discriminazioni generate da base dati errate che, come è successo in passato, tendono a penalizzare determinate categorie di persone.
In conclusione, è ragionevole pensare che l’Unione Europea è impegnata a creare le cinture di sicurezza che aiuteranno le persone ad affrontare un futuro dove l’intelligenza artificiale possa aiutarci a migliorare società e ambiente. L’adozione sempre più familiare aiuterà a eliminare quei pregiudizi che l’umanesimo digitale inevitabilmente farà scomparire del tutto o in gran parte. La conoscenza soprattutto basata sull’esperienza genererà una consapevolezza che potrà dare alle persone una maggiore responsabilità e un nuovo senso etico sociale e ambientale.
Mi è stato insegnato che la strada per il progresso non è rapida né facile