Dopo più di due anni di gestazione, un record di 36 ore di negoziazioni estenuanti, una conferenza stampa annunciata e saltata a data da destinarsi, per poi finire in corner a mezzanotte, e un interesse da evento sportivo mai visto prima per regolamentazioni tech, è stato infine raggiunto un accordo politico in Europa per l’AI Act, il regolamento Ue sull’intelligenza artificiale.
L’accordo uscito dal ‘trilogo’ (negoziazioni tra Parlamento, Consiglio e Commissione) in questo momento manca ancora di un testo definitivo a disposizione del pubblico, e molto si giocherà sui dettagli.
Per questo motivo anche chi sosteneva la regolamentazione, specie la bozza più attenta alla difesa dei diritti uscita dal Parlamento a giugno, in questo momento sta sospendendo il giudizio in attesa di capire quanto i dettagli daranno margine di manovra agli Stati, alle eccezioni previste, e quanto alla difesa di quei diritti. Senza contare che molti aspetti tecnici saranno messi a terra nelle prossime settimane.
Ma intanto possiamo dire che già il fatto di aver trovato un accordo politico e aver chiuso l’AI Act è di per sé un successo, considerata la quantità di soggetti e interessi che remavano contro e quanti scommettevano, anche nelle ultime ore di trattative, sul fallimento delle stesse.
Addirittura un euforico e poco diplomatico Thierry Breton, commissario al Mercato interno e gran cerimoniere delle negoziazioni e della conferenza stampa, è arrivato a dire che c’è stato molto lobbying contro e molti Stati “hanno cercato di fermarci” (notevole anche il suo tweet con il grafico dei continenti che hanno una legge sull’AI e quelli che non ce l’hanno).
Ad ogni modo, il tema è complesso, e mancano molte tessere del puzzle ancora, per cui da qui in avanti cercherò di fare una mia estrema sintesi basata sui documenti pubblici usciti, sulla conferenza stampa, e su altri resoconti pubblici (fonti linkate alla fine).
Le proibizioni
Proibite le seguenti applicazioni di IA:
– sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
– lo scraping non mirato di immagini di visi da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (alla Clearview per intenderci);
– riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche (ma alcune eccezioni in nome della sicurezza, ad esempio per rilevare se un guidatore si sta addormentando);
– la classificazione sociale basata sul comportamento sociale o sulle caratteristiche personali (si tratta del cosiddetto social scoring);
– sistemi di IA che manipolano il comportamento umano per eludere la libera volontà delle persone;
– IA utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale ecc.).
Malgrado non sia nella lista del comunicato, anche il predictive policing (polizia predittiva) sarebbe stato proibito, quanto meno nella forma in cui si valuta il rischio che un certo individuo possa commettere reati futuri sulla base di tratti personali (qui cito Luca Bertuzzi, giornalista di Euractiv che ha fatto un gran lavoro nel seguire le negoziazioni).
Tuttavia non è chiaro quale sia la formulazione precisa finale e quali siano i confini tecnici di questo ban.
Il corelatore dell’AI Act Dragos Tudorache (Renew, Romania) ha detto che sarebbe consentito in alcune circostanze.
Di fronte a una domanda al riguardo, l’altro co-relatore Brando Benifei (Socialisti e Democratici, Italia) ha detto (in inglese, traduco io dalla conferenza stampa) invece che c’è un “ban su tutte le attività di polizia predittiva, ma abbiamo concesso la possibilità di utilizzare applicazioni di analisi del crimine che non si applicano a singoli individui, bensì a tendenze anonime, ed escludiamo che possano prevedere o suggerire che qualcuno possa commettere un crimine. Abbiamo combattuto una buona battaglia e siamo convinti di essere dalla parte giusta”.
A quel punto Tudorache ha riconosciuto che, sì, sono state vietate tutte le tecnologie che potrebbero predeterminare chi potrebbe commettere un crimine.
Il nodo del riconoscimento facciale in spazi aperti al pubblico
A causa delle pressioni dei governi sul Parlamento, non c’è un ban totale sui sistemi di identificazione biometrica da remoto (Remote Biometric Identification o RBI) in spazi accessibili al pubblico, nel senso che ci sono eccezioni a fini di applicazione della legge, previa autorizzazione giudiziaria e “per liste di reati rigorosamente definite”.
L’RBI da remoto ex-post (cioè non in tempo reale) verrebbe utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave (recita il comunicato).
L’RBI “in tempo reale” dovrebbe seguire condizioni rigorose e il suo uso sarebbe limitato nel tempo e nel luogo, ai fini di:
– ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale);
– prevenzione di una minaccia terroristica specifica e attuale;
– localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (ad esempio, terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
IA generativa e modelli di base
È stato concordato che i sistemi di IA per uso generale (GPAI), che possono svolgere compiti vari, dovranno aderire ai requisiti di trasparenza inizialmente proposti dal Parlamento. Questi includono la stesura di documentazione tecnica, il rispetto della legge sul copyright dell’Ue e la diffusione di sintesi dettagliate sui contenuti utilizzati per l’addestramento, recita il comunicato.
Per i modelli GPAI ad alto impatto con rischio sistemico, i negoziatori del Parlamento sono riusciti a ottenere obblighi più stringenti. Se questi modelli soddisfano determinati criteri (notate che questi criteri in parte sono ancora da definirsi e potranno essere aggiornati), dovranno condurre valutazioni del modello, dei rischi sistemici, test di sicurezza e riferire alla Commissione su incidenti gravi.
Secondo le valutazioni di alcuni esperti, al momento solo GPT4 (e forse Gemini) ricadrebbero in questo livello di GPAI ad alto impatto. Mentre i prodotti di Mistral AI (la società francese di cui abbiamo scritto su Guerre di Rete) anche qualora vengano commercializzati, ricadranno nel livello più basso, non quello ad alto impatto (è stato detto in conferenza stampa in risposta a domanda).
Ci sono eccezioni per i modelli open source e per la ricerca, è stato detto in conferenza stampa. E ci sono ambienti regolatori (sandbox) ad hoc per le piccole e medie imprese per poter innovare più agevolmente.
Tempistiche e sanzioni
Sei mesi per le proibizioni. 12 mesi per i requisiti di trasparenza e governance. 24 mesi per il resto. Nel mentre prevista anche una fase di transizione chiamata AI Pact di volontaria adesione delle aziende.
“Il mancato rispetto delle norme può portare a multe che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda” (comunicato).
Per dirla con uno scoppiettante Breton: “No penalties, no regulation”.
Fonte
Nessun commento:
Posta un commento