INTELLIGENZA ARTIFICIALE E DIRITTO POSITIVO

INTELLIGENZA ARTIFICIALE E DIRITTO POSITIVO

Torino, 27 giugno 2023. Di Chiara Zarcone, Giurista, già Cultore della materia Diritto Penale presso l’ Università degli Studi di Torino

Tutti i fenomeni umani si interfacciano inevitabilmente con il mondo del Diritto ed egualmente inevitabilmente il mondo della cosiddetta IA, intelligenza artificiale, figlia ultimissima dell' uomo, si deve interfacciare con il mondo del Diritto.

Come definire dunque l'intelligenza artificiale?

Per Intelligenza artificiale viene inteso “qualsiasi software sviluppato con una o più delle tecniche e approcci ...che può, per un dato insieme di obiettivi definiti dall’uomo, generare risultati come contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”.

Nell'aprile 2021, la Commissione Europea ha finalmente proposto il primo quadro normativo sull'IA affichè i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti.

Il Parlamento Europeo si è pronunciato in termini di sicurezza, trasparenza, tracciabilità, non discriminazione e rispetto dell'ambiente e, importantissimo, i sistemi di intelligenza artificiale dovranno essere supervisionati da persone e non da automazione perché non dobbiamo mai dimenticare che “Il computer non è una macchina intelligente che aiuta le persone stupide, anzi è una macchina stupida che funziona solo nelle mani delle persone intelligenti" (cit. Umberto Eco) e, come tutte le macchine stupide può essere pericoloso e deve essere sempre controllato dalla humana itelligentia.

Non dimentichiamo che l'intelligenza artificiale interviene anche sotto forma di sistemi incorporati in altri oggetti quali ad esempio robot, veicoli autonomi, droni, e in generale strumenti nel cosiddetto ambito dell'internet delle cose (IoT- Internet of Things) il cosiddetto "internet delle cose" che si riferisce a quell'insieme di oggetti di uso quotidiano come telefoni, automobili, elettrodomestici, vestiti che sono collegati ad internet con una connessione senza fili tramite chip intelligenti e sono in grado di rilevare e comunicare dati.

Non si deve però mai "maltrattare" troppo l' IA poiché non dobbiamo dimenticare come luso dellintelligenza artificiale abbia contribuito al raggiungimento di risultati importantissimi dal punto di vista sociale e ambientale.

L’obiettivo dell’Unione Europea è dunque assicurare che i cittadini possano beneficiare in tutta sicurezza (o quantomeno approntando tutti gli standard di sicurezza possibili) di nuove tecnologie sviluppate e operanti in conformità ai valori, ai diritti fondamentali e ai principi dell’Unione e dunque di tutti i Paesi che ne fanno parte.

La Proposta di base, presentata dalla Commissione Europea il 21 Aprile 2021 prevede un biennio di assestamento per consentire a tutti gli operatori di predisporre gli strumenti organizzativi, tecnici e commerciali per poter essere operativamente conforme agli standard così come strutturati dalla Proposta.

Questo vorrà dire che il Regolamento, una volta recepite le indicazioni dei pareri, si applicherà decorsi 24 mesi dalla sua effettiva entrata in vigore. Decorsi poi ulteriori 12 mesi troverà applicazione anche il sistema di sanzioni in esso previsto. Il quadro normativo sull’intelligenza artificiale così come strutturato dalla Commissione Europea si pone come obbiettivi quelli di:

1) assicurare che i sistemi di IA immessi sul mercato dell’Unione e utilizzati siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione stessa;

2) assicurare la certezza del diritto per facilitare gli investimenti e l’innovazione nell’intelligenza artificiale;

3) migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di IA;

4) facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili nonché prevenire la frammentazione del mercato.

Ancora più importante è che si traccia finalmente una line di confine giuridico tra ciò che è lecito e ciò che non lo è.

Nello specifico è previsto un divieto di utilizzazione di tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico.

Il divieto di fare leva sulla vulnerabilità di uno specifico gruppo di persone utilizzandone età o disabilità fisica o mentale, al fine di distorcere materialmente il comportamento di una persona che appartiene a tale gruppo in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico.

Vi è inoltre la previsione di uno specifico divieto di immissione sul mercato, messa in servizio o uso di sistemi di IA da parte delle autorità pubbliche o per loro conto, ai fini della valutazione o della classificazione dell'affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali.

Viene disposto il divieto dell'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi: la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi, la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di un attacco terroristico, il rilevamento, la localizzazione, l'identificazione o l'azione penale nei confronti di un autore o un sospettato di un reato contemplato dal regime in materia di mandato d'arresto europeo, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno tre anni.

Sono inclusi in tale categoria di reati, tra l'altro: la partecipazione a un'organizzazione criminale, il terrorismo, la frode e il riciclaggio, il traffico di droga e di armi, la corruzione e la criminalità informatica (cfr proposta di Regolamento COM 2021 (206)).

Come già detto in incipit all'articolo, i sistemi di IA vengono classificati in base al potenziale di rischio. Un alto rischio viene individuato in un sistema IA che opera in modo autonomo e che potenzialmente potrebbe causare danni o pregiudizi a una o più persone in modo casuale, oltre quanto ci si possa ragionevolmente aspettare.

Maggiore è il grado di interazione tra la gravità dei possibili danni e di autonomia decisionale del sistema, maggiore sarà il grado si rischio stesso.

In base al livello di rischio sarà individuato un differente grado di responsabilità oggettiva o per colpa, e in un apposito elenco allegato al Regolamento.

Saranno individuati puntualmente i sistemi di IA ad alto rischio, accomunati da un significativo tasso probabilistico di causare danni o pregiudizi a una o più persone in modo casuale.

Alla luce di ciò, appare chiaro come il Legislatore si sia trovato e si trovi in una difficilissima posizione e dovrà necessariamente operare il più giusto bilanciamento tra rischi, numerosi, ed altrettanti, numerosi, benefici derivanti dall'uso ormai quotidiano ed indispensabile dell'intelligenza artificiale.

Una nota dell'autore: non bisogna demonizzare mai troppo il progresso - che è figlio e frutto del passato - perché domani sarà sempre il nostro tempo migliore.