Il testo del Regolamento europeo sulla Intelligenza artificiale, il cosiddetto AI Act, è stato al centro di un accordo politico nel dicembre del 2023 dal Parlamento Europeo. L’Unione Europea ha, ora, definito i dettagli tecnici della sua proposta e la riunione dei rappresentanti permanenti dei 27 Paesi Ue (Coreper I) ha dato il via libera al nuovo sistema di regole. Esaminiamole assieme. (Continua a leggere dopo la foto)
Leggi anche: “Pronto, nonna…”, ma è la truffa dei finti nipoti. Intelligenza artificiale nuova frontiera dei ladri
Il regolamento
Si va verso l’approvazione finale, e l’obiettivo è di porre un freno alla manipolazione dei contenuti, il cosiddetto deep fake, ma non solo. Il testo, prima di diventare legge, dovrà essere approvato nuovamente dal Parlamento, probabilmente a metà febbraio, e poi in plenaria, a marzo o aprile; in seguito, l’AI Act dovrebbe entrare in vigore entro la fine dell’anno e prevedere un periodo di transizione fino a 36 mesi. Uno dei punti più controversi riguarda quelli che vengono definiti modelli di fondazione, come ChatGPT, che sono modelli di intelligenza artificiale basati sul linguaggio, capaci di generare testi sui più svariati argomenti. La Francia, ad esempio, si è mostrata contraria a imporre obblighi vincolanti ai fornitori di questi modelli, ma, infine, nella riunione degli ambasciatori dell’Ue, il testo è stato approvato all’unanimità. (Continua a leggere dopo la foto)
Leggi anche: “Diritto alla riparazione”, l’Europa raggiunge l’accordo. Interessa tutti: ecco di cosa si tratta
Intelligenza artificiale, le tre categorie dell’AI Act
L’AI Act classifica i sistemi di intelligenza artificiale in tre categorie, a seconda del rischio potenziale che presentano.
- I sistemi ad alto rischio, ovvero quelli che possono avere un impatto significativo sulla vita, la salute, la sicurezza o i diritti: dovranno rispettare rigorosi parametri prima di essere introdotti nel mercato dell’Unione europea e saranno soggetti al controllo delle autorità nazionali.
- I sistemi a rischio minimo sono quelli che non presentano rischi particolari per la società, dunque esenti da regole aggiuntive.
- I sistemi a rischio limitato sono quelli che possono influenzare le scelte o i comportamenti delle persone, come i chatbot o i filtri di contenuti online. Questi sistemi dovranno rispettare obblighi di trasparenza di base, ad esempio informare l’utente in merito alla natura e alle finalità del sistema. (Continua a leggere dopo la foto)
Leggi anche: Cosa fare se un numero internazionale (sconosciuto) ci chiama su WhatsApp?
Il commento di Benifei
Brando Benifei, eurodeputato del Pd, relatore dell’AI Act a Strasburgo, ha commentato:
“Dopo settimane di rumors sulla stampa e di dubbi, fomentati da qualche grande impresa perlopiù extra-europea e magari da ministri che avrebbero voluto usare queste tecnologie per sorveglianza e attività di controllo sociale senza regole, abbiamo avuto oggi l’approvazione unanime dai rappresentanti permanenti dei governi europei del testo finale del regolamento sull’Intelligenza artificiale, l’AI Act”.
I potenziali rischi dell’AI
Sono oltre mille, e tra questi spicca il nome di Elon Musk, i firmatari della lettera aperta con la quale nel marzo del 2023 i leader della Silicon Valley chiedevano di sospendere lo sviluppo dell’Intelligenza Artificiale: consci, proprio loro che sono l’avanguardia della ricerca tecnologica, del pericolo che può rappresentare e del “mostro” che hanno creato. La lettera aperta è stata pubblicata da Future of Life Institute e riportata dal Financial Times: “Negli ultimi mesi c’è stata una corsa fuori controllo dei laboratori per l’Intelligenza Artificiale a sviluppare e dispiegare potenti menti digitali”, vi è scritto, dunque “Chiediamo a tutti i laboratori di fermarsi immediatamente per almeno sei mesi nell’addestrare i sistemi più potenti come GPT-4”.
Leggi anche: WhatsApp, in arrivo la condivisione file via bluetooth