Dal rischio inaccettabile al rischio alto, a quello limitato fino a quello minimo-nullo. È su questa rigorosa gerarchia del livello di rischio che si basa l’Artificial Intelligence Act (AI Act), approvato dal Consiglio dell’Unione europea (Ue) il 21 maggio 2024 a seguito dell’approvazione del Parlamento europeo. È il primo tentativo al Mondo di stabilire norme armonizzate per lo sviluppo e l’uso di sistemi basati sull’intelligenza artificiale.
Categoria: Industria, innovazione e infrastrutture
Obiettivo 9: Industria, innovazione e infrastrutture
Costruire un’infrastruttura resiliente e promuovere l’innovazione e una industrializzazione equa, responsabile e sostenibile.
DOSSIER AI ACT Molti interrogativi etici aperti dalle regole della prima legge europea sulle applicazioni dell’Intelligenza artificiale
Più trasparenza, meno rischi, più partecipazione, meno pericoli. Queste dovrebbero essere le parole chiave che guidano gli intenti della nuova legge europea sull’intelligenza artificiale nata con l’obiettivo di rendere obbligatorie le buone pratiche connesse ai suoi usi.
Il Consiglio ha fatto l’ultimo passaggio approvativo il 21 maggio 2024, entrerà in vigore venti giorni dopo la sua pubblicazione nella Gazzetta ufficiale e sarà pienamente applicabile due anni dopo.
Invece i divieti saranno effettivi dopo sei mesi e dopo dodici sarà la volta delle norme di gestione e degli obblighi per i modelli di IA per uso generale. Infine, le norme per i sistemi di IA – integrati in prodotti regolamentati – si applicheranno dopo trentasei mesi.
DOSSIER AI ACT Difficile definire e regolamentare una tecnologia in corsa che riguarda sistemi fra loro molto diversi
Secondo Riccardo Zese, docente di IA a Unife, le precauzioni non devono applicarsi alla singola tecnologia ma al suo utilizzo
L’AI Act è la nuova legge europea che, prima al Mondo, regola l’Intelligenza Artificiale (IA), ma sotto a questo termine vengono a trovarsi una molteplicità di strumenti tecnologici estremamente diversi tra loro. Ad oggi, se si pensa all’IA vengono subito in mente i sistemi generativi, che servono per creare nuovi contenuti. Ne sono un esempio celebre ChatGPT o il rivale Gemini, che sono strumenti in grado di generare testo a seguito di richieste (prompt) che l’utente invia con un sistema che imita una chat di messaggistica. Ci sono poi anche quelle IA generative che servono per la generazione di immagini, come Midjourney e Dall-e. Non bisogna però dimenticare che quelle generative sono solo una sottocategoria nel panorama tecnologico dell’IA.
Pochi scienziati usano i social media per la comunicazione scientifica
Secondo il chirurgo Unife Zamboni, invece, sono importanti. Ma servono competenza e regole etiche
Secondo il rapporto Eurobarometer 2021, nei Paesi europei il 29% della popolazione si tiene informata su scienza e tecnologia attraverso nuovi media digitali tra cui i social network.
Competenze digitali per lo sviluppo sostenibile: è necessario comprenderne rischi e opportunità
La sostenibilità e l’impatto del digitale in Italia nei dati Ipsos presentati a “Smart Environment”
Impossibile mirare alla sostenibilità senza un largo impiego di tecnologia, intesa come strumento in grado di abilitare modelli di comportamento e di consumo coerenti e di ottimizzare i processi industriali per migliorare la gestione delle risorse.