Intelligenza Artificiale: l’AI Act europeo

Intelligenza Artificiale: l’AI Act europeo

Il Parlamento europeo ha approvato l’AI Act – scrive Il Corriere Della Sera – la prima legge al mondo sull’intelligenza artificiale (AI), cinque anni dopo la sua prima proposta di regolamentazione. Le prime bozze della legge si concentravano sui sistemi di AI che svolgevano compiti limitati, come la scansione dei curriculum e delle domande di lavoro. L‘affermarsi dei sistemi di intelligenza artificiale «generativa» come ChatGpt di OpenAI, capaci di svolgere molti compiti ritenuti finora umani (e altri decisamente sovraumani) ha spinto i responsabili politici dell’Ue a cercare di tenere il passo. Spiega Michela Rovelli: L’AI Act si applica a tutti i Paesi membri dell’Unione europea e prevede quattro livelli di rischio dell’AI: inaccettabile, alto, limitato e minimo. Vengono proibite le applicazioni che hanno un «rischio inaccettabile», ovvero che violano i valori europei. Tra queste ci sono i sistemi di social scoring, gli strumenti di polizia predittiva, i sistemi di riconoscimento delle emozioni in ambito lavorativo o scolastico. Vengono proibiti anche i sistemi che possono sfruttare caratteristiche vulnerabili di un individuo: l’età, una disabilità, una specifica situazione sociale. Infine, sono vietati i sistemi di riconoscimento biometrico in luoghi pubblici, con una eccezione: previa autorizzazione giudiziaria, le forze dell’ordine potranno usarli in caso di persone scomparse o per prevenire un attacco terroristico. I sistemi ad alto rischio sono quelli che possono avere un impatto dannoso sulla salute, la sicurezza e i diritti fondamentali dei cittadini. Non vengono proibiti ma si chiede una precisa serie di requisiti. Tra questi, una valutazione dei rischi e una documentazione delle scelte tecniche ed etiche. Devono permettere l’intervento umano e garantire la sicurezza informatica. Si richiede infine la trasparenza sul funzionamento degli algoritmi, unico requisito previsto anche dai sistemi a rischio limitato. I sistemi a rischio minimo non hanno nessun obbligo legale. L’AI generativa rientra nei sistemi ad alto rischio. Per chi viola l’AI Act le sanzioni arrivano fino a 35 milioni di euro o fino al 7 per cento dei ricavi annuali della società responsabile.