Cosa vuol dire intelligenza artificiale, e soprattutto, come funziona?
L’intelligenza artificiale si fonda sullo sviluppo di macchine e sistemi che possano autonomamente svolgere alcune funzioni e avere determinate capacità, che normalmente sarebbero demandate all’intervento umano.
Il modello di riferimento, quindi, è l’uomo, che diventa il soggetto che la macchina deve essere in grado di emulare e sostituire nel compimento di determinate attività, grazie, appunto, allo sviluppo di capacità di ragionamento e apprendimento simili a quelle umane.
Ma dove e quando nasce l’intelligenza artificiale?
La nascita dell’intelligenza artificiale è strettamente connessa al famoso “test di Turing”: una macchina potrebbe così essere ritenuta “intelligente” quando un essere umano che ne osservi il comportamento non è in grado di distinguere l’attività della macchina da quella di un altro essere umano. Questo esperimento rappresenta quindi l’inizio di un percorso che, dagli anni ’50, arriva ai giorni nostri costellato da una serie di evoluzioni e innovazioni che hanno portato a risultati sicuramente impensabili agli albori.
Gli obiettivi della proposta europea per la regolamentazione dell’AI
Una breve disamina del fenomeno dell’IA e delle sue possibili implicazioni rende sicuramente più facile comprendere come mai la Commissione Europea ha presentato una proposta di regolamento in materia.
Si tratta di un unicum nel panorama mondiale avente lo scopo di regolare l’utilizzo dell’IA sia per gli operatori europei, sia per quei fornitori o utenti di sistemi di IA stabiliti fuori dall’Ue nei casi in cui l’output dei sistemi sviluppati o utilizzati dagli stessi venga utilizzato all’intero dell’Ue.
Il 21 aprile 2021, infatti, la Commissione ha reso nota la volontà di dettare i limiti e gli ambiti di applicazione dell’intelligenza artificiale, perseguendo un duplice scopo:
- garantire uno standard elevato di tutela per i diritti e le libertà dei cittadini europei;
- promuovere lo sviluppo dei sistemi di intelligenza artificiale, quali strumenti per risultare competitivi e, perché no, vincenti, nel panorama economico mondiale.
Ovviamente, l’intelligenza artificiale incontra una serie di limiti, primo fra tutti, la privacy!
Il coordinamento con la normativa sul trattamento dei dati e la privacy
Il Regolamento UE 679/2016, c.d. “GDPR”, rappresenta la normativa di riferimento in materia di protezione dei dati personali in Europa, al cui interno si riscontrano alcune prescrizioni che possono incidere sull’utilizzo dell’intelligenza artificiale.
Iniziamo dall’articolo 6 del GDPR, rubricato “Liceità del trattamento”, il quale prevede un elenco delle basi giuridiche che possono legittimare un trattamento: le motivazioni, cioè, che rendono un trattamento lecito e rispettoso dei diritti dell’interessato. Le basi giuridiche individuate dalla norma sono strettamente legate al concetto della “finalità” perseguita, che deve essere sempre determinata, esplicita e soprattutto legittima.
Riuscirà, però, il regolamento europeo sull’IA a raggiungere gli obiettivi prefissati, coordinandosi con normative come il GDPR e rimanendo al passo con le evoluzioni tecnologiche?
Sul punto si è già espresso Guido Scorza, componente del Garante Privacy italiano, affermando che “la Commissione europea ha presentato la sua ricetta per garantire che l’intelligenza artificiale produca impatti sostenibili sulla società. Proprio come accaduto qualche anno fa con la privacy è un’iniziativa buona, coraggiosa e condivisibile oltre ogni ragionevole dubbio”.
Accanto a questo plauso, però, emergono anche delle perplessità, in particolare sulla schematica previsione di attività più o meno rischiose di altre, dato la continua evoluzione delle applicazioni tecnologiche legate all’IA.
Cosa vieta la proposta di regolamento UE sull’intelligenza artificiale
Sicuramente la previsione che ha destato più interesse, dopo la presentazione della bozza di regolamento UE, è quella che prevede un divieto generale di utilizzo di dispositivi che permettono l’identificazione biometrica tramite strumenti, ad esempio, di riconoscimento facciale. La posizione della Commissione Europea sembrerebbe molto chiara, e lascerebbe spiragli soltanto in casi specifici e ben regolamentati.
La delicatezza del tema risiede nell’oggetto del trattamento di strumenti che mirano all’identificazione biometrica di un soggetto, ossia i c.d. dati biometrici.
I dati biometrici, stando alla definizione contenuta nell’articolo 4, par.14, del GDPR, sono “dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici”.
Questa tipologia di dati può rientrare indubbiamente nella più ampia categoria dei c.d. “dati particolari”, regolati dall’articolo 9 del GDPR, che prevede un generale divieto di trattare “dati biometrici intesi a identificare in modo univoco una persona fisica”. Sono previsti, però, casi in cui questo generale divieto viene derogato, come, ad esempio, se c’è il consenso dell’interessato, se si deve proteggere un interesse vitale o quando il trattamento di questi dati serve per migliorare l’efficienza della sanità pubblica.
Se già, quindi, il GDPR ha posto una particolare attenzione per il trattamento di questa categoria di dati, il regolamento europeo sull’intelligenza artificiale ha scelto una posizione ancor più netta, tenendo in alta considerazione la tutela dei diritti e delle libertà dei cittadini nei casi di identificazione biometrica a distanza nei luoghi pubblici.
Ecco perché sono stati limitati e ben individuati i casi in cui si potrebbe lecitamente derogare al generale divieto d’utilizzo di dispositivi di questo genere: casi individuati in esigenze quali la ricerca di un minore scomparso o il contrasto a potenziali attacchi terroristici.
Tutto questo dovrebbe poi essere soggetto ad un controllo preventivo, essendo comunque tale utilizzo “subordinato all’autorizzazione di un organo giudiziario o indipendente e ad opportuni limiti di tempo e spazio”.
I livelli di rischio dell’IA e le sanzioni proposte per il nuovo Regolamento UE
L’approccio e l’impostazione della bozza di Regolamento proposta dalla Commissione Europea sono basati sulla diversificazione dei livelli di rischio da attribuire alle varie applicazioni dell’intelligenza artificiale.
Sono considerati, quindi, a “rischio minimo”, quegli utilizzi dell’intelligenza artificiale che non sono lesivi dei diritti e delle libertà dei cittadini, o comunque non lo fanno in maniera incisiva.
Questa classificazione ne permette un utilizzo diffuso in attività molto semplici e comuni alla quotidianità di tutti noi: si tratta, ad esempio, dell’utilizzo dei filtri antispam nelle caselle di posta elettronica, grazie ai quali un soggetto può evitare di ricevere e leggere comunicazioni non desiderate, senza dover compiere alcuno sforzo.
Salendo un gradino, nella scala ideale pensata come base del modello di regolamento, si arriva al c.d. “rischio limitato”: per questa categoria è richiesto un livello di trasparenza maggiore, che permetta ai soggetti di essere consapevoli di interagire con un sistema basato sull’intelligenza artificiale e non con un essere umano. Tra i casi di IA che rientrano in questo livello di rischio vi sono gli ormai famosi chatbot, utilizzati per rendere servizi di assistenza agli utenti/clienti in maniera continuativa e sempre raggiungibili, proprio perché forniti direttamente da una macchina.
Ancora più delicato è il livello definito di “rischio alto”, cioè quello che caratterizza l’uso dell’intelligenza artificiale considerato potenzialmente lesivo di diritti e libertà degli individui.
Le criticità, in questi casi, sono maggiori e più incisive, motivi per i quali le condizioni di utilizzo e i controlli sono più stringenti. Vige, infatti, un divieto generale di utilizzo di dispositivi che rientrano nel livello di rischio alto, seppure accompagnato da una serie di deroghe speciali, quali la ricerca di un minore scomparso oppure il contrasto a minacce terroristiche.
Il caso più problematico è rappresentato dall’utilizzo dell’intelligenza artificiali per il riconoscimento biometrico dei soggetti. Al di là di valutazioni di carattere prettamente etico, sul piano del rischio, si tratta infatti di applicazioni dell’IA che possono ledere, primo fra tutti, il diritto alla protezione dei dati personali in maniera tutt’altro che accettabile.
In ultimo, viene individuato un livello di “rischio inaccettabile”, che già dalla sua definizione fa percepire come l’intento del regolamento è quello di vietare le applicazioni dell’IA nei casi rientranti in questo specifico livello. Qui troviamo infatti un assoluto divieto di utilizzo di tutti quei dispositivi basati sull’IA che, anche in via potenziale, possono compromettere e manipolare le scelte dei soggetti che li utilizzano, determinando il rischio di una vera e propria deviazione del libero arbitro dell’individuo: vi rientra, ad esempio, l’utilizzo di voci digitali.
Ovviamente, oltre alla previsione di una “scala” di rischi, vi è stata contestualmente l’individuazione di un impianto sanzionatorio che possa rispecchiare la gravità, la durata e la natura delle possibili violazioni delle disposizioni del regolamento. In particolare, in termini di incisività – com’era già successo con il Regolamento UE 679/2016 – sono state previste delle sanzioni molto gravose per chi non si dovesse allineare alle prescrizioni del regolamento, che possono arrivare fino a 30 milioni o fino al 6% del fatturato globale annuo.
Pro e contro dell’intelligenza artificiale
Le applicazioni dell’intelligenza artificiale sono ormai assai diffuse anche nelle azioni quotidiane, a tal punto da farci lecitamente domandare: quali aspetti negativi si accompagnano ai numerosi benefici?
Sicuramente l’enorme vantaggio che si ottiene dall’utilizzo di sistemi di IA è quello di poter affidare all’attività autonoma ed esclusiva del congegno azioni meccaniche e ripetitive, che vengono svolte in maniera più celere e senza l’ausilio della componente umana. Proprio quest’ultimo aspetto, però, rappresenta il contraltare di un’attività che quindi sfugge totalmente dal controllo umano, comportando rischi notevoli anche in tema di sicurezza dei dati personali, oltre che nei più svariati settori che possono venire in rilievo a seconda dell’ambito di attività in cui è coinvolta la macchina.
Oltre a ciò, un aspetto ritenuto positivo dell’utilizzo di macchine che sfruttano l’intelligenza artificiale è il fatto che non siano soggette a cali di prestazioni e a tutte le altre variabili che inevitabilmente caratterizzano le attività svolte dall’uomo, unitamente ad un grado di precisione nello svolgimento delle proprie mansioni altamente accurato.
L’intelligenza artificiale, inoltre, ha il grande vantaggio di poter essere utilizzata anche senza un bagaglio di conoscenze tecniche consistente, essendo tendenzialmente semplice ed intuitivo l’utilizzo di dispositivi “smart” nella propria abitazione o lo sfruttamento della realtà aumentata anche a fini banalmente ludici. Tutto questo d’altra parte sottende dei costi, che nel caso dell’intelligenza artificiale possono essere anche piuttosto elevati e quindi non alla portata di chiunque.
È chiaro, quindi, che il tema dell’intelligenza artificiale si presta a interpretazioni confliggenti in termini di “pro” e “contro” che ne caratterizzano l’utilizzo, rimanendo l’aspetto della sostituzione dell’uomo – con tutte le conseguenze che ne derivano – un punto critico e ancora dibattuto.
È meglio affidarsi ad una consulenza legale sull’intelligenza artificiale
Innovazione e rischi per i diritti e le libertà dei cittadini sono due facce della stessa medaglia quando si parla di intelligenza artificiale. Proprio per evitare che la componente di rischio prevalga sugli innumerevoli vantaggi ed opportunità connessi all’utilizzo dell’IA, è importante rivolgersi ad un professionista, che possa garantire una consulenza specifica sull’intelligenza artificiale.
La corretta valutazione del caso concreto, oltre che l’esperienza e le dovute conoscenze in materia, possono consentire un uso proficuo e sicuro dell’IA: per maggiori informazioni al fine di ricevere una consulenza legale personalizzata sull’intelligenza artificiale contatta il nostro partner Studio Legale FCLEX.
Redazione Diritto dell’Informatica