È fondamentale comprendere come l’intelligenza artificiale influenzi non solo il campo tecnologico ma anche quello sociale e giuridico. L’evoluzione normativa nel contesto europeo rappresenta infatti un passo significativo verso l’identificazione dei rischi associati a questi processi in rapida espansione. La recente votazione del Parlamento europeo sulla proposta di regolamento noto come AI Act indirizza la definizione di misure utili a garantire la sicurezza degli utenti promuovendo al contempo l’innovazione e consolidando il primato globale dell’Unione sul fronte del diritto.

Questo testo, di cui ancora non è presente una bozza definitiva, nasce in virtù del crescente dibattito pubblico e dall’attenzione che i media da tempo riservano alla questione.

L’iniziativa ha quindi l’obiettivo di perimetrare i contesti d’applicazione dell’AI e identificare gli impieghi più rischiosi, limitando usi potenzialmente invasivi come il riconoscimento facciale indiscriminato e la profilazione biometrica[1]. Si impone inoltre ai sistemi AI ad alto rischio di essere trasparenti, accurati e di operare sotto supervisione umana, garantendo che le tecnologie non soppiantino i processi decisionali individuali ma li supportino e li integrino.

Durante il Ventotene Europa Festival, questo tema è stato al centro di un ampio dibattito nel panel conclusivo della tre giorni. Il professor Raffaele Torino, docente dell’Università degli Studi Roma Tre, e il dottor Guido Scorza, componente del Collegio del Garante per la protezione dei dati personali, hanno descritto il modo in cui l’AI sta trasformando il lavoro e le competenze necessarie nella società moderna. Torino in particolare ha messo in luce come l’AI, sebbene non “comprenda” nel vero senso della parola, possa eseguire compiti che cambiano la nostra percezione della conoscenza e delle abilità.

Scorza ha invece evidenziato come l‘AI stia già influenzando decisioni quotidiane in ambiti che vanno dal consumo culturale alle scelte di viaggio, delineando uno scenario in cui i “padroni della tecnologia” diventano di fatto i nuovi regolatori delle norme sociali, a meno che non intervengano regolamentazioni democratiche tempestive.

Il rischio è sempre determinato dal fattore tempo come sottolineato dallo stesso prof. Torino nel suo articolo “L’Unione si difende dall’Intelligenza Artificiale” pubblicato nell’ultimo numero della rivista dal titolo “Cosa resta dell’uomo?”: “In realtà, per vederne dispiegare appieno gli effetti, sotto il profilo temporale, dovremo attendere due anni (per alcune disposizioni persino tre anni) dalla entrata in vigore (essendo previsti tre step intermedi di piena operatività di alcuni settori della regolamentazione: 6 mesi, 12 mesi e 24 mesi) e, sotto il profilo contenutistico, va sottolineato che sono molto numerosi i necessari atti integrativi (atti delegati, atti di esecuzione, guidelines) rimessi all’iniziativa della Commissione europea e alla successiva approvazione del Parlamento europeo. Senza ovviamente considerare i temi che sono lasciati alle scelte dei 27 Stati membri. Al riguardo, c’è da confidare (primo atto di fiducia) che proprio la dilazionata entrata in vigore dell’AI Act consenta alle istituzioni europee di adattarlo con prontezza e lungimiranza alla veloce, velocissima, evoluzione del settore dell’Intelligenza Artificiale”.

Durante la conferenza è stata sottolineata la necessità di una regolamentazione che non solo tenga il passo con l’innovazione, ma che promuova anche una giusta equità nell’uso dell’AI, evitando discriminazioni e abusi. Varie ricerche dimostrano che le disparità di genere nella ricerca e negli ambienti accademici possano riflettersi anche nei team di sviluppo dell’AI, portando a sistemi che potrebbero non considerare pienamente le esigenze di tutti gli utenti. L’importanza della trasparenza e dell’etica è stata ribadita anche a Ventotene per costruire una società in cui la tecnologia supporta e non sopprime i diritti umani e civili.

Serve un dialogo continuo tra sviluppatori, oligopolisti dei dati, legislatori, e la società civile per garantire che la regolamentazione dell’AI sia equilibrata, efficace e in grado di adattarsi al contesto. Questo dialogo è essenziale per evitare che l’AI diventi un ennesimo strumento di discriminazione o un nuovo modo per esercitare controllo non democratico in cui l’interesse privato sovrasta quello collettivo, assicurando invece che rimanga veicolo per un progresso quanto più possibile armonico.

 

Fonti e approfondimenti

  • Laux, J., Wachter, S. and Mittelstadt, B. (2024), Trustworthy artificial intelligence and the European Union AI act: On the conflation of trustworthiness and acceptability of risk. Regulation & Governance, 18: 3-32. https://doi.org/10.1111/rego.12512
  • [1] https://www.europarl.europa.eu/news/it/press-room/20240308IPR19015/il-parlamento-europeo-approva-la-legge-sull-intelligenza-artificiale
  • DDL intelligenza artificiale post precdm