Intelligenza Artificiale: l’impatto di un’efficace regolamentazione normativa sulla promozione del principio di uguaglianza e sul contrasto alla “discriminazione algoritmica”

ICT-Insider-Artificial-Intelligence

 

Autori: Wendy Kuyoh, Eleonora Margherita Auletta, Andrea Strippoli

 

Regolamentazione dell’Intelligenza Artificiale: gli interventi normativi a livello globale

La tecnologia basata sull’Intelligenza Artificiale (IA) è diventata parte della vita di ogni persona, essendo, oramai, quotidiano il ricorso alle applicazioni dei social media e alle chatbot di marketing. Nel corso degli anni, l’utilizzo di tale tecnologia è quindi aumentato, consentendo di prendere decisioni in grado di comportare, tuttavia, gravi conseguenze sotto il profilo della tutela dei diritti umani[1].  La crescente importanza delle applicazioni di IA e dei sistemi algoritmici ha, quindi, conseguentemente fatto aumentare i fattori di rischio legati alla discriminazione algoritmica, portando alla necessaria elaborazione di interventi di regolamentazione in tutto il mondo, inclusa l’Unione europea[2].

A livello europeo, ad esempio, è opportuno segnalare l’accordo politico raggiunto in data 8 dicembre 2023 dalla presidenza del Consiglio e dai negoziatori del Parlamento europeo in relazione al progetto di Regolamento sull’IA, che verrà approvato a breve nella sua versione definitiva. Allo stesso modo, anche negli Stati Uniti si sono registrati diversi tentativi volti alla regolamentazione dell’IA. Ad esempio, il 30 ottobre 2023, il Presidente Biden ha emesso lo storico Executive Order on Safe, Secure & Trustworthy Artificial Intelligence al fine di stabilire nuovi standard per la sicurezza dell’IA, promuovendo al contempo, tra le altre, innovazione e concorrenza[3].

È importante notare che anche numerose autorità di controllo per la protezione dei dati europee hanno fornito il proprio contributo in materia, pubblicando linee guida relative all’utilizzo dell’IA in conformità alla normativa in materia di protezione dei dati personali. Ad esempio, l’Autorità francese per la protezione dei dati (CNIL) ha realizzato una serie di materiali volti ad affrontare le principali sfide legate alla tutela dei dati nell’ambito dell’uso dell’IA[4].

In via generale, si è quindi assistito al moltiplicarsi degli interventi finalizzati ad un’efficace regolamentazione dell’IA da parte di una pluralità di attori, data la rilevanza e la diffusione dei sistemi di IA per molteplici scopi, tra cui figurano la valutazione della personalità o delle competenze delle persone e la presa di decisioni, idonee ad impattare, anche gravemente, sui diritti fondamentali degli individui.

Una panoramica sull’impiego efficace dell’IA a favore dell’inclusione e della lotta alla discriminazione

Gli algoritmi e i modelli di intelligenza artificiale sono progettati per prevedere eventi della vita reale e, negli ultimi anni, il loro grande potenziale, a livello di benefici e vantaggi per le persone, è stato eclissato dalla progressiva consapevolezza dei possibili rischi ad essi legati, come la discriminazione e la disuguaglianza[5].  A titolo di esempio, nei Paesi Bassi migliaia di persone si sono trovate a subire le ripercussioni di un algoritmo di auto-apprendimento distorto, nell’ambito del famoso “toeslagenaffaire”, ossia lo scandalo dei sussidi sociali per l’infanzia. In questo specifico caso, l’algoritmo aveva elaborato profili di rischio al fine di rilevare eventuali comportamenti fraudolenti in materia di assistenza all’infanzia. Un rapporto parlamentare sulla vicenda ha dimostrato come le vittime di profilazione algoritmica si fossero ritrovate in condizioni di angoscia e di maggiore povertà tali da provocare persino un caso di tentato suicidio[6].

Analogamente, nel 2018, un rapporto di Reuters ha riferito del tentativo, da parte di Amazon, di utilizzare l’IA per realizzare uno strumento di screening dei CV raccolti in azienda nell’arco di un paio d’anni, senza, tuttavia, vagliare tutte le potenziali conseguenze – tra cui possibili episodi discriminatori nei confronti del genere femminile – dal momento che la maggior parte dei CV risultavano essere stati presentati da uomini. Ciò ha portato, pertanto, alla dismissione del sistema in questione[7].

Come appena visto, i sistemi di lA sono basati su dataset e modelli che possono dare luogo a stereotipi e false supposizioni riguardo ad un determinato insieme di soggetti a seconda che siano categorizzati in base al sesso, alla razza, all’orientamento sessuale, all’età e alla religione. Ad ogni modo, grazie agli sforzi mirati alla regolamentazione di tali sistemi e alla consapevolezza dei rischi da parte delle entità intenzionate ad utilizzare tale tecnologia, le discussioni inizieranno progressivamente ad incentrarsi su innovazione, inclusione e meccanismi antidiscriminatori.

Implicazioni di una discriminazione basata sugli algoritmi e sui dati

Gran parte dei sistemi di intelligenza artificiale trattano dati personali da utilizzare per l’elaborazione di modelli algoritmici e per l’addestramento dei sistemi di apprendimento automatico. I dati personali possono, quindi, essere utilizzati per studiare e condizionare il comportamento umano e, di conseguenza, determinare eventuali scenari di discriminazione cd. “algoritmica”[8].

Al riguardo, una delle principali sfide è rappresentata dal fatto che il ricorso ad applicazioni di IA e a sistemi algoritmici rende difficoltosa l’identificazione e la risoluzione delle cause di discriminazione, dal momento che le scelte e le decisioni sono affidate prevalentemente a sistemi automatizzati. I sistemi di intelligenza artificiale, risultando generalmente poco trasparenti, spesso non forniscono risposte e spiegazioni agli individui interessati dal loro impiego[9].

È evidente come la gestione delle discriminazioni e degli svantaggi algoritmici richieda un grado di controllo e supervisione nettamente superiore da parte dei diversi attori coinvolti, tra cui le autorità di regolamentazione e le organizzazioni intenzionate all’implementazione di tali sistemi.

Conclusioni

Alcune delle sfide che si presentano a fronte della diffusione dei sistemi di IA hanno suscitato risposte a livello normativo in tutto il mondo, come opportunità per il miglioramento dei sistemi di IA dal punto di vista del loro sviluppo, diffusione e utilizzo. Diversi attori pubblici e privati si sono impegnati per anticipare la regolamentazione in arrivo e hanno messo a punto strutture di governance dell’IA in grado di affrontare parte delle criticità. Tra le considerazioni che possono essere tratte per garantire un impatto positivo sull’impiego dei sistemi di IA da parte delle aziende, vi è l’emanazione di linee guida da parte delle autorità di controllo in merito all’impiego di tali sistemi e il consolidamento dei principi fondamentali in materia di protezione dei dati – tra cui la trasparenza – nella progettazione di tali applicazioni. Ciò considerato, è evidente come l’effettiva conformità al quadro normativo e regolativo proposto e vigente favorisca la promozione e lo sviluppo di un ambiente egualitario ed inclusivo.

 

 

 

[1] Consiglio d’Europa, “AI & discrimination”, https://www.coe.int/en/web/inclusion-and-antidiscrimination/ai-and-discrimination.

[2] Ivana Bartoletti e Raphaële Xenidis, “Study on the impact of artificial intelligence systems, their potential for promoting equality, including gender equality, and the risks they may cause in relation to non-discrimination”, Consiglio d’Europa https://rm.coe.int/prems-112923-gbr-2530-etude-sur-l-impact-de-ai-web-a5-1-2788-3289-7544/1680ac7936

[3] Casa Bianca, “Fact Sheet: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence”, Stati Uniti d’America, 30 ottobre 2023 https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/

[4] Autorità francese per la Protezione dei dati (CNIL), “Self-assessment guide for artificial intelligence (AI) systems” https://www.cnil.fr/en/self-assessment-guide-artificial-intelligence-ai-systems

[5] Ivana Bartoletti E Raphaële Xenidis, v. nota 2, p. 9.

[6] Melissa Heikkila, “Dutch scandal serves as a warning for Europe over risks of using algorithms”, Politico, 29 marzo 2022 https://www.politico.eu/article/dutch-scandal-servesas-a-warning-for-europe-over-risks-of-using-algorithms/

[7] Jeffrey Dastin, “Insight – Amazon scraps secret AI recruiting tool that showed bias against women”, Reuters, 11 ottobre, 2018 https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G/

[8] Parlamento europeo, “The Impact of the General Data Protection Regulation (GDPR) on Artificial Intelligence”, EPRS – Servizio di ricerca del Parlamento europeo, giugno 2020 www.europarl.europa.eu/RegData/etudes/STUD/2020/641530/EPRS_STU(2020)641530_EN.pdf

[9] Gabriele Spina Alì e Ronald Yu, “Artificial Intelligence between Transparency and Secrecy: From the EC Whitepaper to the AIA and Beyond”, European Journal of Law and Technology, Vol 12 No.3 (2021), https://www.ejlt.org/index.php/ejlt/article/download/754/1044/3716

ICTLC Italy
italy@ictlegalconsulting.com