Dopo il via libera da parte delle commissioni Mercato Interno e Libertà Civili, il Parlamento europeo ha approvato in seduta plenaria le nuove regole sull’intelligenza artificiale. La legge, nota come AI Act, prevede obblighi per le aziende che sviluppano i modelli IA e soprattutto una serie di divieti, tra cui quello di usare le tecnologia per attività di sorveglianza biometrica. Ora inizieranno i negoziati con il Consiglio sul testo definitivo.
Regole per un’IA sicura e trasparente
Le norme approvate dal Parlamento europeo (499 voti a favore, 28 contrari e 93 astensioni) prevedono che l’intelligenza artificiale rispetti diritti e valori dell’UE in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale. La Commissione europea aveva proposto una regolamentazione basata sul livello di rischio. Tra quelli con rischio inaccettabile (e quindi vietati) ci sono i sistemi IA usati per generare un punteggio sociale, ovvero classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali.
Considerati i progressi tecnologici degli ultimi due anni, i deputati hanno aggiornato l’elenco per vietare:
- l’uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico;
- i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico);
- i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
- i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione;
- l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
È stato aggiornato anche l’elenco dei sistemi IA considerati ad alto rischio per includere quelli che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente, tra cui quelli utilizzati per influenzare l’esito delle elezioni e per i suggerimenti sui social media di grandi dimensioni (oltre 45 milioni di utenti).
Ci sono inoltre specifici obblighi per i fornitori dei modelli di IA generativa, come ChatGPT. Le aziende dovrebbero mitigare i possibili rischi (per salute, sicurezza, diritti fondamentali, ambiente, democrazia e Stato di diritto), registrare i modelli nella banca dati dell’UE prima della loro immissione sul mercato e rispettare i requisiti di trasparenza, dichiarando che il contenuto è stato generato dall’IA.
I fornitori dovrebbero anche semplificare la distinzione tra immagini fake e reali, fornire salvaguardie per evitare la generazione di contenuti illegali e indicare i dati protetti dal diritto d’autore utilizzati per l’addestramento. Sono tuttavia previste esenzioni per le attività di ricerca e le IA sviluppate con licenza open source. L’entrata in vigore della legge è prevista nel 2025.
Fonte: Luca Colantuoni per Punto-informatico.it