Che cos’è l’Intelligenza Artificiale?
Con il termine Intelligenza Artificiale si individuano quei sistemi che permettono a determinate macchine di replicare il ragionamento umano effettuando un’attività intelligente. Nello specifico, un sistema di Intelligenza Artificiale è tale nel momento in cui, attraverso la simulazione delle capacità cognitive umane, la macchina comprende, ragiona, apprende ed interagisce come se fosse una persona.
Ad oggi, si suole distinguere tra Intelligenza Artificiale forte e debole a seconda delle caratteristiche dei sistemi stessi. Con Intelligenza Artificiale debole si individua quella tecnologia capace di simulare parte delle capacità cognitive umane senza però riuscire a riprodurre fedelmente il ragionamento umano.
Con Intelligenza Artificiale forte, invece, si identificano quelle tecnologie che non sono volte tanto alla simulazione del ragionamento umano, ma piuttosto allo sviluppo di un sistema cognitivo autonomo in grado di replicare il più possibile quello dell’uomo. In relazione a tale forma di Intelligenza l’obiettivo è quello di sviluppare algoritmi tali da permettere alla macchina di imparare dai propri errori e comportarsi di conseguenza quando si trova davanti a situazioni analoghe, migliorando continuamente le proprie capacità.
Tali tecnologie risultano sempre più presenti nelle nostre vite, in quanto le ritroviamo ormai nell’utilizzo degli assistenti vocali, nello sviluppo di sistemi di guida autonoma e addirittura in software cosiddetti di polizia predittiva, come X-Law, un software, inventato dalla questura di Napoli che, incrociando un numero elevatissimo di dati provenienti dalle denunce inoltrate alla Polizia di Stato, riesce ad elaborare previsioni particolarmente attendibili – seppure da verificare poi caso per caso – sul possibile verificarsi di reati.
D’altra parte, la nascita e lo sviluppo di tali sistemi ha acuito il dibattito relativo al rapporto intercorrente tra etica e tecnologia. In un mondo caratterizzato da un’incessante rincorsa al superamento dei limiti tecnologici, la morale diviene al contempo punto di riferimento e limite del progresso.
Prendiamo l’esempio, che spesso è stato citato in questo contesto, di una macchina a guida autonoma che si vede costretta a sacrificare la vita di un pedone per salvare quella della persona al suo interno o viceversa. Il sistema di Intelligenza Artificiale potrà prendere una decisione solo sulla base di quegli input etici preventivamente stabiliti e posti all’interno dell’algoritmo su cui si basa la sua tecnologia.
Dall’Europa un progetto di codice etico per l’Intelligenza Artificiale
Per la prima volta si è costretti a fare i conti con una tecnologia che non è mero strumento di supporto alle attività dell’uomo. Potenzialmente questo tipo di tecnologia ha infatti la capacità di sostituirlo completamente. Da qui l’esigenza di regolare tale fenomeno alla radice.
L’Unione Europea è la prima tra le grandi istituzioni mondiali a rendersi conto di tale necessità e ad agire di conseguenza predisponendo un progetto volto a regolamentare tale fenomeno.
Alla luce di queste problematiche, infatti, la Commissione Europea, nel giugno 2018, ha selezionato un gruppo di 52 esperti provenienti dal mondo accademico, dell’industria e della società civile al fine di redigere un documento provvisorio contenente linee guida relative all’uso dell’Intelligenza Artificiale. Il documento definitivo, da modificare ed integrare anche con le osservazioni provenienti dalla società civile, è atteso per marzo 2019.
Da tale progetto risulta chiaro che l’obiettivo fondamentale, per una realtà quale quella europea, deve essere quello di promuovere fin da subito un approccio etico e trasparente per promuovere lo sviluppo di tecnologie IA. Il fine è quello di incoraggiare i ricercatori a sviluppare tali sistemi nel rispetto del principio di non discriminazione umana e nel rispetto della normativa sulla privacy. Riprendendo il principio di privacy by design, cardine del GDPR, ossia di un sistema privacy costruito dalle fondamenta, l’Unione Europea tenta di imporre fin dalla fase di progettazione di tali tecnologie il rispetto di fondamentali valori.
Il tema della privacy pare essere il più rilevante in questa prima fase di sviluppo dell’Intelligenza Artificiale. In ossequio a quanto disposto all’interno del documento provvisorio, non saranno ammessi sistemi di raccolta dati e di profilazione di massa, attraverso sistemi simili o di altro tipo.
Se forse siamo ancora lontani (ma non troppo) dallo sviluppo di automi completamente indipendenti, l’utilizzo di sistemi di IA più semplici è una costante dei nostri giorni. Pensiamo semplicemente al modo in cui riescono ad interagire con noi gli assistenti vocali dei nostri smartphone. Questi, basandosi sui dati biometrici raccolti giorno dopo giorno, sono in grado sempre più di fornire risposte adeguate alle nostre necessità.
Centrale, secondo le linee guida, deve essere il rispetto dei diritti fondamentali ed il ruolo della dignità umana. Le macchine caratterizzate da tali tecnologie dovranno sempre agire in favore della realizzazione dell’autonomia dell’uomo e mai limitandola. Questo risulta essere il principio cardine attorno al quale sviluppare tali tecnologie.
Altri principi fondamentali che emergono dalle predette guidelines evidenziano la necessità di sviluppare un sistema improntato al benessere individuale e collettivo. Tali tecnologie non dovranno, quindi, mai e poi mai danneggiare l’essere umano, ma proteggere la sua dignità, la sua sicurezza fisica, psicologica e finanziaria.
Non sempre l’uomo è riuscito a scegliere tra sviluppo tecnologico e rispetto dei principi etici. In tale contesto l’Unione Europea, almeno in linea di principio, sembra aver scelto per il rispetto dei secondi. Ponendo al centro delle linee guida principi quali la dignità umana, l’uomo, il rispetto della democrazia e della giustizia, l’Unione Europea manifesta la volontà di non rendere eccessiva l’intrusione di tali tecnologie nella vita quotidiana.
I sistemi di IA dunque, non potranno mai essere utilizzati per estrapolare dati personali particolare o per scopi di profilazione. Tutti i progetti volti allo sviluppo di questi sistemi, dovranno attenersi a tali principi per quanto attiene la progettazione degli algoritmi alla base di tali tecnologie, eventualmente modificando gli stessi algoritmi se in contrasto.
Il differente approccio cinese
Rispetto a quanto sta avvenendo nel Vecchio Continente in tema di lo sviluppo di tecnologie, in Cina, già da qualche anno, gli investimenti in questo settore sono ingenti. Questo Paese rappresenta già ad oggi il punto di riferimento principale per tali tecnologie e si prospetta che attorno al 2030 riuscirà a consolidare il ruolo di superpotenza nel campo dell’Intelligenza Artificiale.
Il differente approccio allo sviluppo di tali sistemi nella realtà cinese è dettato principalmente dal differente contesto politico rispetto a quello europeo. Il Governo di Pechino infatti, sembra essere sempre più intenzionato ad utilizzare tali tecnologie per creare un sistema di controllo di massa. A tal fine, dal 2020, verrà realizzato il progetto di “Sistema di credito sociale”. Mediante il supporto di sistemi di videosorveglianza e controllo a 360°, dotati di tecnologia IA, verrà assegnato un punteggio ai cittadini. Sulla base di tale punteggio, dettato dall’analisi di ciò che i cittadini dicono sui social ma anche delle abitudini di acquisto degli stessi, il governo cinese potrà precludere o incentivare l’accesso a determinati servizi.
La polizia di Pechino poi, ormai da qualche anno, è dotata di occhiali con tecnologia di riconoscimento facciale capace di identificare un volto con esattezza, confrontandolo con i dati provenienti da un database contenente migliaia di persone.
Da quanto sopra appare che questo Paese ha adottato un approccio diverso da quello europeo sul tema della protezione dei dati personali dei cittadini. Non è il singolo, infatti, ad essere messo al centro del progetto quanto piuttosto lo Stato e la collettività. L’esigenza di sicurezza sociale tende così a prevalere su quei principi di dignità dell’uomo e di rispetto della privacy posti a fondamento del progetto di codice etico europeo.
Dott. Alvise Nisato